¿Cuáles son los riesgos de ChatGPT? La inteligencia artificial responde

11 minutos
12/21/2022
¿Cuáles son los riesgos de ChatGPT? La inteligencia artificial responde
Imagen: "Cyberpunk robot typing in a typewritter", interpretado por DreamStudio

El futuro comenzó la semana pasada. Aunque se anticipaba que tarde o temprano una herramienta de inteligencia artificial sería capaz de redactar textos coherentes, resolver preguntas y poner ideas complejas en palabras sencillas, para muchos fue una sorpresa que ChatGPT, una herramienta que cumple con estas premisas, se abriera al público a comienzos de diciembre. 

Desde entonces las redes sociales se han llenado de experimentos y bromas, los usuarios le han pedido al chat que componga canciones, invente escenas de ficción o cuente chistes, mientras que otros han puesto a prueba la veracidad y coherencia de sus respuestas, todavía vulnerables a errores y “alucinaciones” en las que el chat confunde y mezcla hechos con elocuencia, pero sin precisión.

Más allá de la novedad de la herramienta, que ya ha sido usada por un millón de personas, están puestos sobre la mesa los riesgos que esta inteligencia artificial –al igual que la que se ha desarrollado para generar imágenes– puede representar en la amplificación de desinformación o el aumento de la discriminación. Es un enorme reto para OpenAI, la compañía que desarrolló ChatGPT, cuya misión es promover una visión de la inteligencia artificial que beneficie la humanidad.

Dentro de sus múltiples virtudes, ChatGPT tiene también la de la franqueza. Por eso, “entrevistamos” al bot alrededor de los principales problemas que se han planteado sobre su funcionamiento. A continuación, sus respuestas:

¿Cuáles son los principales riesgos de ChatGPT relacionados con la desinformación?

Como ChatGPT es un modelo de lenguaje entrenado por OpenAI, no está diseñado para detectar o combatir la desinformación. En cambio, su objetivo es generar texto que sea coherente y natural en respuesta a una entrada dada. Esto significa que ChatGPT puede repetir información falsa si se le proporciona como entrada, lo que puede llevar a la propagación de desinformación. Por lo tanto, es importante tener cuidado al utilizar ChatGPT y comprobar la veracidad de la información generada antes de compartirla.

¿Hay alguna forma de prevenir que ChatGPT reproduzca estereotipos raciales o basados en género, por ejemplo?

Como ChatGPT es un modelo de lenguaje que se entrena en grandes conjuntos de texto existentes, puede reproducir cualquier tipo de lenguaje o estereotipos que se encuentren en esos conjuntos de datos. Sin embargo, es posible influir en el tipo de lenguaje que genera ChatGPT al seleccionar cuidadosamente las entradas y al configurar adecuadamente su entrenamiento. Por ejemplo, se pueden utilizar conjuntos de datos que sean libres de lenguaje inapropiado o estereotipos, y se pueden aplicar técnicas de aprendizaje supervisado para enseñar a ChatGPT a evitar ciertos tipos de lenguaje. Sin embargo, se necesitaría una supervisión y un análisis cuidadosos para lograr esto de manera efectiva.

¿Hay reglas de moderación de contenidos en ChatGPT?

Como ChatGPT es solo un modelo de lenguaje, no tiene reglas de moderación de contenidos incorporadas. En su lugar, es responsabilidad del usuario o del desarrollador que utilice ChatGPT implementar y hacer cumplir cualquier regla de moderación de contenidos que consideren necesarias. Esto puede incluir filtros de palabras inapropiadas, políticas de uso apropiado y procedimientos para informar y abordar el contenido inapropiado. Como siempre, es importante tener en cuenta que ChatGPT solo genera texto en respuesta a una entrada dada, por lo que la responsabilidad de cualquier contenido inapropiado o desinformación recae en el usuario que proporcionó la entrada.

¿Hay forma de conocer cuáles son las fuentes de ChatGPT para dar una respuesta?

ChatGPT es un modelo de lenguaje entrenado por OpenAI. Como tal, no tiene una fuente única de información, sino que ha sido entrenado en grandes conjuntos de texto existentes. Esto incluye una amplia variedad de textos, desde noticias y artículos científicos hasta conversaciones en línea y diálogos de ficción. Debido a esto, no es posible conocer las fuentes exactas que ChatGPT utiliza para cada respuesta dada. Sin embargo, se puede tener una idea general del tipo de información que ChatGPT ha sido entrenado para generar.

Captura de pantalla de la entrevista con ChatGPT

¿ChatGPT reemplazará a motores de búsqueda como Google?

No es probable que ChatGPT reemplace a los motores de búsqueda. Aunque puede proporcionar información útil en ciertas situaciones, no está diseñado para realizar búsquedas en la web o indexar grandes cantidades de información como lo hacen los motores de búsqueda. Además, los motores de búsqueda utilizan un conjunto completamente diferente de tecnologías y algoritmos para encontrar y clasificar la información relevante en la web. Por lo tanto, es poco probable que ChatGPT pueda reemplazar a los motores de búsqueda en su función principal.

¿En el futuro ChatGPT trabajará con verificadores de datos?

No tengo información al respecto ya que no estoy conectado a Internet y no puedo consultar sobre el tema. Sin embargo, es posible que en el futuro se desarrollen modelos de lenguaje que trabajen de manera conjunta con verificadores de datos, pero eso dependerá de cómo evolucionen las tecnologías y las necesidades del mercado.

¿Cómo se asegura que las respuestas de ChatGPT cumplan con los derechos de autor de las fuentes que lo alimentan?

ChatGPT es un modelo de lenguaje generativo. Como tal, no tiene la capacidad de acceder a fuentes externas de información y, por lo tanto, no puede infringir derechos de autor. En su lugar, ChatGPT utiliza su conocimiento incorporado y su capacidad de comprensión del lenguaje natural para generar respuestas a preguntas que se le hagan. Debido a que no utiliza fuentes externas de información, no hay necesidad de preocuparse por el cumplimiento de los derechos de autor en las respuestas que genera.

Para ahondar sobre la irrupción de ChatGPT y los avances y el futuro de la inteligencia artificial, recomendamos esta conversación entre el matemático Luis Serrano, dueño del canal de YouTube Serrano Academy, y Carlos Cortés, cofundador de Linterna Verde.

Por:
ir al home