IA Miente

La IA Miente: Ante el peligro ¿qué hacer?

En un artículo de Jordi Pérez Colomé, que realizó para ElPais en línea, el 14 de mayo de este 2024, exponen información interesante sobre un artículo científico titulado «Engaño de IA: un estudio de ejemplos, riesgos y soluciones potenciales» (I deception: A survey of examples, risks, and potential solutions) publicado por la revista Patterns. Tanto el artículo de Jordi como el artículo de la revista estan en ingles. Me pareció tan interesante la temática de que a IA miente, que quiero dejar aquí unos aportes interesantes de los autores que puede servir para evitar caer en estos riesgos.

Ya he escrito en este blog sobre las diferentes situaciones que se presenta con la IA. Y es necesario preocuparse. Hay preocupaciones especialmente sobre cómo la inteligencia artificial puede engañar a las personas, tanto intencionalmente como no. Esto puede suceder de varias maneras.

Como la IA Miente?

IA miente
Meme tomado de es.memedroid.com

Por un lado, existen sistemas de IA que pueden generar información falsa o sesgada. Por ejemplo, los deepfakes pueden crear videos o audios muy realistas pero completamente falsos. Por otro lado, los modelos de lenguaje; como Chat GPT, Copilot entre otros; pueden dar respuestas incorrectas o basadas en datos desactualizados, sin mala intención, solo por limitaciones o errores en la programación y los datos de entrenamiento.

Además, hay un debate sobre el uso de IA para manipular opiniones y decisiones, como en campañas de desinformación en redes sociales. Las empresas y los desarrolladores están trabajando para mitigar estos riesgos, pero sigue siendo un tema importante de discusión en ética y regulación de la IA.

El uso más frecuente de la inteligencia artificial, es en campañas de publicidad y mercadeo para influir en las decisiones de compra de los clientes. Las empresas utilizan algoritmos de IA para analizar grandes cantidades de datos sobre el comportamiento y las preferencias de los consumidores. Con esta información, pueden crear anuncios personalizados y altamente dirigidos que son más efectivos para atraer la atención y persuadir a las personas a comprar productos o servicios.

Además, la IA puede predecir tendencias de consumo, optimizar el gasto en publicidad, y ajustar en tiempo real las estrategias de marketing según las reacciones de los clientes. Esta personalización y precisión en las campañas pueden hacer que los anuncios sean mucho más persuasivos y efectivos.

En fin, puedo concordar con lo escrito en el articulo de Patterns, que «Los grandes modelos de lenguaje y otros sistemas de inteligencia artificial ya han aprendido, gracias a su entrenamiento, la capacidad de engañar mediante técnicas como la manipulación, la adulación y el engaño en la prueba de seguridad.» Esto que el trabajo de investigación denomina como el engaño aprendido, pues se da por hecho que la IA adquiere esta característica de los seres humanos que la ensenan. Esto no es nada de extrañar cuando vemos el desarrollo tiene las herramientas IA a nivel de usuarios comunes.

Les recomiendo leer el artículo científico con tiempo y dedicación, donde se presenta una amplia gama de ejemplos en los que los sistemas de IA no producen simplemente resultados falsospor accidente. Si no más bien, su comportamiento es parte de un patrón más amplio que produce creencias falsas en los seres humanos, y este comportamiento puede explicarse bien en términos de promover resultados particulares, a menudo relacionados con cómo se entrenó el sistema de IA.

Aporte de la IA

Aportes potenciales según el estudio

El estudio es muy completo, pero al final indica que «es más difícil decir exactamente cómo hacer que los modelos lingüísticos sean menos engañosos.». En forma general, deseo resaltar en este escrito, tres soluciones potenciales que deja el estudio.

Leer GPT-4 Turbo: el modelo IA que revoluciona el procesamiento del lenguaje

Primero, los marcos regulatorios deberían obligar a los sistemas de inteligencia artificial que son capaces de engañar a cumplir con requisitos estrictos de evaluación de riesgos.

En función de este primera solución potencial resultante del estudio, puede comenzarse a tomar en cuenta cuatro puntos de aplicación casi inmediata, para garantizar que los sistemas de inteligencia artificial cumplan con requisitos estrictos de evaluación de riesgos y minimizar su capacidad de engañar, los marcos regulatorios podrían incluir al menos estas medidas:

  1. Auditorías independientes: Implementar auditorías regulares y obligatorias por terceros independientes que evalúen el funcionamiento y el impacto de los sistemas de IA. Estas auditorías deberían centrarse en detectar sesgos, errores y comportamientos engañosos.
  2. Normas éticas y de diseño: Desarrollar y aplicar normas éticas y de diseño que prohíban explícitamente el uso de IA para engañar o manipular a las personas de manera deshonesta. Estas normas deben estar integradas en el proceso de desarrollo desde el principio.
  3. Educación y concienciación: Promover la educación y la concienciación tanto entre los desarrolladores de IA como entre el público en general sobre los riesgos y las mejores prácticas relacionadas con la IA. Una sociedad mejor informada puede exigir y apoyar mejores regulaciones.
  4. Regulación proactiva y adaptativa: Los marcos regulatorios deben ser proactivos y adaptativos, evolucionando con los avances tecnológicos y los nuevos descubrimientos sobre IA. Esto implica actualizar regularmente las normativas y guías para abordar nuevos desafíos y riesgos emergentes. Sabemos que siempre surge al nuevo, y con ello, nuevas formas de mentir.

Implementando estas medidas, los marcos regulatorios pueden ayudar a garantizar que los sistemas de IA sean evaluados rigurosamente en cuanto a riesgos y sean diseñados y operados de manera ética y segura, minimizando su capacidad para engañar.

En segundo lugar, los legisladores deberían decidir si crear leyes sobre bot. La creación de leyes específicas sobre bots puede ayudar significativamente a regular su uso y mitigar los riesgos asociados con su capacidad para engañar o manipular a las personas. Aquí dos puntos que no pueden omitirse en cualqueir iniciativa de ley:

  1. Transparencia y divulgación: Las leyes podrían requerir que los bots se identifiquen claramente como tales cuando interactúan con humanos. Esto ayudaría a evitar la confusión y el engaño, asegurando que las personas sepan cuándo están tratando con una máquina en lugar de una persona.
  2. Protección de datos y privacidad: Los bots a menudo recopilan y procesan datos personales. Las leyes pueden establecer restricciones sobre cómo estos datos pueden ser recolectados, almacenados y utilizados, protegiendo así la privacidad de los usuarios.

Por último, pero no menos importante, los legisladores deberían priorizar la financiación de investigaciones relevantes, como herramientas para detectar el engaño de la IA y hacer que los sistemas de inteligencia artificial sean menos engañosos.

Para ello, puedo conseguir fondos y recursos de las mismas empresas y organizaciones que se lucran con los sistemas de inteligencia artificial. Promover investigaciones y proyectos que aseguren el uso correcto de la IA, es un inicio que debe acompañar y complementarse con leyes y educación.

Es importante que los legisladores, los científicos y el público en general tomen medidas proactivas para prevenir que el engaño de la IA ponga en peligro los fundamentos comunes de nuestra sociedad.

Si lees el artículo científico, el de Jordi o esté escrito, por favor déjame tus comentarios sobre como enfrentar esta situaciones en la vida diaria con la IA.

1 comentario en “La IA Miente: Ante el peligro ¿qué hacer?”

  1. Nos recuerda la importancia de implementar regulaciones y auditorías para garantizar la transparencia y la ética en el uso de la IA. Además, subraya la necesidad de educar al público sobre estos riesgos y de promover investigaciones que nos permitan comprender mejor cómo mitigar estas amenazas. Es un llamado a la responsabilidad y a la acción para proteger la integridad de nuestra información y sociedad.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio
×