La inteligencia artificial (IA) ha experimentado avances significativos en los últimos años a través de ChatGPT, en el campo de los modelos de lenguaje natural. Ya todos nosotros hace uso de el como si fuera un necesidad vital mas. Sin embargo, estos avances no están exentos de desafíos, y uno de ellos es la generación de información falsa o poco confiable por parte de la IA. Este problema ha sido evidenciado por el modelo ChatGPT, desarrollado por OpenAI.
Hay muchas evidencias que los usuarios ha reportado, donde el Chat da repuestas, especialmente en lógica, que no son correctas o confiable. Tal vez para algunos casos y muy útil, pero en el campo científico y donde necesites información valida es un riesgo fundamentar tu trabajo solo con ChatGPT. Esto puede comprobarlo leyendo este articulo.
Toda esta controversia ha llevado a que muchos usuarios acudan otras herramientas que suministren un información mas precisa y confiable. Aquí puede ver algunas alternativas a ChatGPT. La recomendación, si deseas seguir usando ChatGPT es que no tomes todo lo expresado como verdadero.
Experiencias personales y estudios académicos lo confirman
Diversos usuarios han reportado experiencias en las que ChatGPT ha generado respuestas plausibles pero falsas. Para comprobar esta problemática, se realizaron pruebas solicitando al modelo citas de personas específicas, pero las respuestas obtenidas no eran citas auténticas. Incluso cuando se proporcionaba abundante contexto y se instruía a ChatGPT para no fabricar citas, el modelo seguía inventando comentarios atribuyéndolos a las personas en cuestión.
Un estudio realizado por investigadores de Mehul Bhattacharyya, Valerie M. Miller, Debjani Bhattacharyya y Larry E. Miller, titulado «High Rates of Fabricated and Inaccurate References in ChatGPT-Generated Medical Content«, reveló que al analizar 30 artículos médicos generados por ChatGPT-3.5, el 47% de las referencias eran completamente inventadas, el 46% eran auténticas pero utilizadas de forma inexacta, y solo el 7% eran auténticas y exactas.
Estos resultados reflejan la preocupación general de que ChatGPT no solo puede generar citas falsas, sino también artículos completos y titulares que nunca existieron. Esta tendencia, conocida como «alucinación», se considera una amenaza significativa para la integridad de la información en diversos campos.
Respuesta de OpenAI y limitaciones del modelo
Ante esta problemática, se ha contactado a OpenAI para recabar comentarios al respecto. Aunque no se ha obtenido una respuesta directa de la empresa, se ha señalado la existencia de una nueva entrada de blog y un documento de investigación que abordan algunas de estas cuestiones.
OpenAI reconoce que ChatGPT a veces genera respuestas plausibles pero incorrectas o sin sentido. Solucionar este problema es complicado debido a la falta de una fuente de verdad durante el entrenamiento del modelo, el desafío de entrenar al modelo para que sea más cauteloso sin rechazar preguntas que podría responder correctamente, y la dificultad de utilizar entrenamiento supervisado debido a la dependencia del conocimiento del modelo en lugar del conocimiento humano.
Además, ChatGPT tiene limitaciones en cuanto a la actualización de información en tiempo real, ya que no realiza búsquedas en la web para obtener datos recientes. A pesar de que OpenAI lo ha actualizado de forma frecuente. También ha sido programado para rechazar peticiones inapropiadas, lo cual limita su alcance y uso potencial.
Los riesgos de desinformación y la importancia de la verificación de los hechos
Los casos de generación de información falsa por parte de ChatGPT plantean riesgos para la desinformación en diversos ámbitos, desde la difusión de noticias falsas hasta la manipulación de datos y hechos. Es crucial que los usuarios sean conscientes de estas limitaciones y verifiquen la información generada por modelos de lenguaje de IA como ChatGPT.
La capacidad de ChatGPT para generar texto coherente y aparentemente razonado puede llevar a una ilusión de veracidad, pero es importante recordar que este modelo de lenguaje no razona ni dispone de conocimiento fiable sobre el mundo. Su funcionamiento se basa en patrones estadísticos y no en una comprensión profunda del significado de las palabras y frases generadas.
Para evitar la propagación de información falsa, es esencial que los usuarios verifiquen la veracidad de la información generada por modelos de lenguaje como ChatGPT. Esto implica recurrir a fuentes confiables, contrastar la información con otros recursos y utilizar el pensamiento crítico para evaluar la coherencia y la validez de los datos proporcionados.
Conclusiones y futuras mejoras en ChatGPT
La problemática de la generación de información falsa por parte de modelos de lenguaje de IA como ChatGPT es un desafío que requiere atención y soluciones. Si bien estos modelos son impresionantes en su capacidad para generar texto coherente, es necesario abordar las limitaciones y riesgos asociados con la veracidad de la información generada.
OpenAI y otros investigadores continúan trabajando en mejorar los modelos de lenguaje de IA para reducir la generación de información falsa y mejorar la precisión de las respuestas. Sin embargo, se necesita un esfuerzo conjunto de los desarrolladores, los usuarios y la sociedad en general para abordar esta problemática y garantizar la integridad de la información en la era de la IA. La verificación de los hechos y el pensamiento crítico siguen siendo herramientas fundamentales para combatir la desinformación.