13.4 C
Resistencia
4 octubre, 2024

“Tengo miedo y estoy muy presionado”: la asustadiza estrategia para mejorar las respuestas de los chatbots

Investigadores aseguran que incorporar el contexto emocional en las indicaciones a las máquinas mejora su rendimiento.

07 de noviembre 2023, 10:03hs

EmotionPrompts: ¿por qué conviene “abrir el corazón” al interactuar con la inteligencia artificial? (Foto: Adobe Stock)

EmotionPrompts: ¿por qué conviene “abrir el corazón” al interactuar con la inteligencia artificial? (Foto: Adobe Stock)

Si bien las conversaciones con entidades inertes no son nuevas, aquella actividad se ha popularizado en 2023 con el auge de la inteligencia artificial generativa. ChatGPT y Google Bard son los emblemas de un tipo de interacción, que se canaliza a través de lo que en la jerga se conoce como prompts. En criollo, son las instrucciones que el usuario le da a la máquina.

Leé también: Prompt engineers, la “profesión del futuro”, estaría destinada a desaparecer antes de lo pensado

Ahora, un estudio realizado por la empresa Microsoft en colaboración con investigadores de la Universidad de Pekín da cuenta de un aspecto revelador. Al parecer, para mejorar las respuestas de los chatbots es conveniente “abrir el corazón” y contarle al sistema algunos detalles de nuestros sentimientos.

Las indicaciones emocionales, clave para mejorar el rendimiento de los chatbots

El concepto central del informe es “EmotionPrompts”, que al español podemos traducir como “indicaciones emocionales”. En la práctica, los investigadores aconsejan que al interactuar con los bots conversacionales el usuario brinde un contexto acerca de su estado anímico. Por ejemplo, comentarios como “tengo miedo” o “me siento presionado” conducen a mejores respuestas del sistema.

El estudio examina los cruces entre la psicología y el funcionamiento de los modelos de lenguaje masivo. (Foto: Adobe Stock)

El estudio examina los cruces entre la psicología y el funcionamiento de los modelos de lenguaje masivo. (Foto: Adobe Stock)

Por otra parte, en contra del uso de un diálogo esquemático, los investigadores notaron la conveniencia de incluir preguntas adicionales, revisiones y comprobaciones, tal como lo haríamos en un contexto puramente humano. Por caso, decirle al chatbot: “¿Estás seguro de que esa es tu respuesta final?”. O “es importante que tengas en cuenta que esto es importante para mi trabajo”.

Leé también: Armas biológicas e inteligencia artificial: las extrañas conversaciones del gobierno de EEUU con ChatGPT

En pruebas realizadas con 106 personas, concluyeron que los mencionados EmotionPrompts mejoran la veracidad de los resultados en más del 10%. Además, en tareas que evalúan el nivel de comprensión de los modelos de lenguaje masivos (LLM) con los que operan los chatbots, el rendimiento fue 115% superior. Para este examen, estudiaron modelos como GPT-4 de OpenAI, aquel que permite el funcionamiento de ChatGPT.

El estudio (es posible consultarlo en este enlace) menciona además algunos puntos en contra asociados a ese tipo de interacción con los chatbots. Según notaron los especialistas, los EmotionPrompts también derivan en un lenguaje carente de matices por parte de los bots. “Creemos que esta forma presagia una forma novedosa para explorar el conocimiento interdisciplinario de las ciencias sociales para la interacción entre los humanos y los LLM”, señalaron. “El misterio detrás de estas divergencias aún no está claro y lo dejamos para trabajos futuros”, concluyeron.

Últimas Noticias
NOTICIAS RELACIONADAS