La IA miente: Ante el peligro ¿Qué hacer?

En un artículo de Jordi Pérez Colomé, que realizó para ElPais en línea, el 14 de mayo de este 2024, exponen información interesante sobre un artículo científico titulado «Engaño de IA: un estudio de ejemplos, riesgos y soluciones potenciales» (I deception: A survey of examples, risks, and potential solutions) publicado por la revista Patterns.

Tanto el artículo de Jordi como el artículo de la revista estan en ingles, y me pareció tan interesante la temática sobre que la IA miente. Quiero dejar aquí unos aportes interesantes. Lo que mencionan los autores puede servir para evitar caer en riesgos lamentables.

Otro pionero importante, como Ryszard Michalski, experto en el área de la inteligencia artificial y el aprendizaje automático, trabajo con algoritmos de aprendizaje, incluyendo el desarrollo del sistema de aprendizaje inductivo conocido como «Inductive Logic Programming» (ILP).

Si bien el trabajo de Michalski ha contribuido significativamente al avance de la IA, la preocupación por la «IA peligrosa» es un tema más amplio y general. Esto involucra consideraciones éticas, de seguridad y de impacto social sobre cómo se desarrollan y aplican las tecnologías de IA.

Ya he escrito en este blog sobre las diferentes situaciones que se presenta con la IA. Y es necesario preocuparse mucho en manejarla. Hay preocupaciones especialmente sobre cómo la inteligencia artificial puede engañar a las personas, tanto intencionalmente como no. Esto puede suceder de varias maneras.

¿Cómo la IA miente?

IA miente
Meme tomado de es.memedroid.com

Por un lado, existen sistemas de IA que pueden generar información falsa o sesgada. Por ejemplo, los deepfakes pueden crear videos o audios muy realistas pero completamente falsos. Los modelos de lenguaje; como Chat GPT, Copilot entre otros; pueden dar respuestas incorrectas o basadas en datos desactualizados. Esto puede ser sin mala intención, solo por limitaciones o errores en la programación y los datos de entrenamiento.

Además, hay un debate sobre el uso de IA para manipular opiniones y decisiones, como en campañas de desinformación en redes sociales. Las empresas y los desarrolladores están trabajando para mitigar estos riesgos, pero sigue siendo un tema importante de discusión.

El uso más frecuente de la inteligencia artificial, es en campañas de publicidad y mercadeo para influir en las decisiones de compra de los clientes. Las empresas utilizan algoritmos de IA para analizar grandes cantidades de datos sobre el comportamiento y las preferencias de los consumidores.

Con esta información, pueden crear anuncios personalizados y altamente dirigidos que son más efectivos para atraer la atención y persuadir a las personas a comprar productos o servicios.

Además, la IA puede predecir tendencias de consumo, optimizar el gasto en publicidad, y ajustar en tiempo real las estrategias de marketing según las reacciones de los clientes. Esta personalización y precisión en las campañas pueden hacer que los anuncios sean mucho más persuasivos y efectivos.

«Los grandes modelos de lenguaje y otros sistemas de inteligencia artificial ya han aprendido, gracias a su entrenamiento, la capacidad de engañar mediante técnicas como la manipulación, la adulación y el engaño en la prueba de seguridad.»

Dicho en el articulo de Patterns, en el cual concuerdo completamente.

Esto que el trabajo de investigación denomina como el engaño aprendido. Por esto se da por hecho que la IA adquiere esta característica de los seres humanos que la ensenan. Esto no es nada de extrañar cuando vemos el desarrollo tiene las herramientas IA a nivel de usuarios comunes.

Les recomiendo leer el artículo científico con tiempo y dedicación, donde se presenta una amplia gama de ejemplos en los que los sistemas de IA no solo producen resultados falsos por accidente. Si no más bien, su comportamiento es parte de un patrón más amplio que produce creencias falsas en los seres humanos. Y este comportamiento puede explicarse bien en términos de promover resultados particulares, a menudo relacionados con cómo se entrenó el sistema de IA.

Aporte de la IA

Aportes potenciales según el estudio

El estudio es muy completo, pero al final indica que «es más difícil decir exactamente cómo hacer que los modelos lingüísticos sean menos engañosos.». En forma general, deseo resaltar en este escrito, tres soluciones potenciales que deja el estudio.

Leer  ¡Parafrasear contenido de ChatGPT! Aqui 3 formas más originales

Primero, los marcos regulatorios deberían obligar a los sistemas de inteligencia artificial que son capaces de engañar a cumplir con requisitos estrictos de evaluación de riesgos.

En función de este primera solución potencial resultante del estudio, puede comenzarse a tomar en cuenta cuatro puntos de aplicación casi inmediata. Esto debe garantizar que los sistemas de inteligencia artificial cumplan con requisitos estrictos de evaluación de riesgos y minimizar su capacidad de engañar. Estos marcos regulatorios podrían incluir al menos estas medidas:

  1. Auditorías independientes: Implementar auditorías regulares y obligatorias por terceros independientes que evalúen el funcionamiento y el impacto de los sistemas de IA. Estas auditorías deberían centrarse en detectar sesgos, errores y comportamientos engañosos.
  2. Normas éticas y de diseño: Desarrollar y aplicar normas éticas y de diseño que prohíban explícitamente el uso de IA para engañar o manipular a las personas de manera deshonesta. Estas normas deben estar integradas en el proceso de desarrollo desde el principio.
  3. Educación y concienciación: Promover la educación y la concienciación tanto entre los desarrolladores de IA como entre el público en general sobre los riesgos y las mejores prácticas relacionadas con la IA. Una sociedad mejor informada puede exigir y apoyar mejores regulaciones.
  4. Regulación proactiva y adaptativa: Los marcos regulatorios deben ser proactivos y adaptativos, evolucionando con los avances tecnológicos y los nuevos descubrimientos sobre IA. Esto implica actualizar regularmente las normativas y guías para abordar nuevos desafíos y riesgos emergentes. Sabemos que siempre surge al nuevo, y con ello, nuevas formas de mentir.

Implementando estas medidas, los marcos regulatorios pueden ayudar a garantizar que los sistemas de IA sean evaluados rigurosamente en cuanto a riesgos y sean diseñados y operados de manera ética y segura, minimizando su capacidad para engañar.

En segundo lugar, los legisladores deberían decidir si crear leyes sobre bot. La creación de leyes específicas sobre bots puede ayudar significativamente a regular su uso y mitigar los riesgos asociados con su capacidad para engañar o manipular a las personas. Aquí dos puntos que no pueden omitirse en cualquier iniciativa de ley:

  1. Transparencia y divulgación: Las leyes podrían requerir que los bots se identifiquen claramente como tales cuando interactúan con humanos. Esto ayudaría a evitar la confusión y el engaño, asegurando que las personas sepan cuándo están tratando con una máquina en lugar de una persona.
  2. Protección de datos y privacidad: Los bots a menudo recopilan y procesan datos personales. Las leyes pueden establecer restricciones sobre cómo estos datos pueden ser recolectados, almacenados y utilizados, protegiendo así la privacidad de los usuarios.

Por último, pero no menos importante, los legisladores deberían priorizar la financiación de investigaciones relevantes, como herramientas para detectar el engaño de la IA y hacer que los sistemas de inteligencia artificial sean menos engañosos.

Perspectivas futuras

Para ello, puedo conseguir fondos y recursos de las mismas empresas y organizaciones que se lucran con los sistemas de inteligencia artificial. Promover investigaciones y proyectos que aseguren el uso correcto de la IA, es un inicio que debe acompañar y complementarse con leyes y educación.

Es importante que los legisladores, los científicos y el público en general tomen medidas proactivas. Es necesario para prevenir que el engaño de la IA ponga en peligro los fundamentos comunes de nuestra sociedad.

Si lees el artículo científico, el de Jordi o este escrito, por favor déjame tus comentarios sobre como enfrentar esta situaciones en la vida diaria con la IA.

Hilmer Palomares

2 comentarios en «La IA miente: Ante el peligro ¿Qué hacer?»

  1. Nos recuerda la importancia de implementar regulaciones y auditorías para garantizar la transparencia y la ética en el uso de la IA. Además, subraya la necesidad de educar al público sobre estos riesgos y de promover investigaciones que nos permitan comprender mejor cómo mitigar estas amenazas. Es un llamado a la responsabilidad y a la acción para proteger la integridad de nuestra información y sociedad.

Deja un comentario

×