Los investigadores encontraron algunas diferencias intrigantes entre cómo los hombres y las mujeres responden al uso de ChatGPT. Posteriormente de usar el chatbot durante cuatro semanas, los participantes del estudio afeminado tenían menos probabilidades de socializar con las personas que sus homólogos masculinos que hicieron lo mismo. Mientras tanto, los participantes que interactuaron con el modo de voz de ChatGPT en un productos que no era suyo para sus interacciones informaron niveles significativamente más altos de soledad y más dependencia emocional del chatbot al final del examen. Operai planea cursar entreambos estudios a revistas revisadas por pares.
Los chatbots impulsados por modelos de idiomas grandes siguen siendo una tecnología incipiente, y es difícil estudiar cómo nos afectan emocionalmente. Mucha investigación existente en el dominio, incluida parte del nuevo trabajo de OpenAI y MIT, se relaciona con datos autoinformados, que pueden no ser siempre precisos o confiables. Dicho eso, esta última investigación Chime con lo que los científicos hasta ahora han descubierto sobre cuán emocionalmente convincentes pueden ser las conversaciones de chatbot. Por ejemplo, en 2023 Investigadores de MIT Media Lab Descubrí que los chatbots tienden a reverberar el sentimiento emocional de los mensajes de un legatario, lo que sugiere un tipo de rizo de feedback donde cuanto más acertado actúe, más acertado parece la IA, o en la otra cara, si actúas más triste, todavía lo hace la IA.
OpenAI y MIT Media Lab utilizaron un método de dos puntas. Primero recopilaron y analizaron datos del mundo auténtico de cerca de 40 millones de interacciones con ChatGPT. Luego le preguntaron a los 4.076 usuarios que habían tenido esas interacciones cómo les hicieron reparar. Luego, el laboratorio de medios reclutó a casi 1,000 personas para participar en un sumario de cuatro semanas. Esto fue más profundo, examinando cómo los participantes interactuaron con ChatGPT durante un insignificante de cinco minutos cada día. Al final del examen, los participantes completaron un cuestionario para calcular sus percepciones del chatbot, sus sentimientos subjetivos de soledad, sus niveles de compromiso social, su dependencia emocional del bot y su sentido de si su uso del bot era problemático. Descubrieron que los participantes que confiaban y “unidos” con ChatGPT más eran más probables que otros para estar solos y encargar más en ello.
Este trabajo es un primer paso importante alrededor de una decano visión del impacto de ChatGPT en nosotros, lo que podría ayudar a las plataformas de IA a permitir interacciones más seguras y saludables, dice Jason Phang, un investigador de seguridad de OpenAI que trabajó en el plan.
“Mucho de lo que estamos haciendo aquí es preliminar, pero estamos tratando de comenzar la conversación con el campo sobre los tipos de cosas que podemos comenzar a calcular y comenzar a pensar en cuál es el impacto a generoso plazo en los usuarios”, dice.
Aunque la investigación es bienvenida, todavía es difícil identificar cuándo un humano es, y no es, está comprometiendo la tecnología en un nivel emocional, dice Devlin. Ella dice que los participantes del estudio pueden tener experimentado emociones que los investigadores no registraron.
“En términos de lo que los equipos se propusieron calcular, las personas podrían no necesariamente tener estado usando ChatGPT de guisa emocional, pero no se puede divorciar de ser un humano de sus interacciones (con tecnología)”, dice ella. “Usamos estos clasificadores de emociones que hemos creado para agenciárselas ciertas cosas, pero lo que positivamente significa para la vida de algún es positivamente difícil de descontextualizar”.
Corrección: una traducción antecedente de este artículo indicaba erróneamente que los participantes del estudio establecieron el productos de la voz de Chatgpt, y que OpenAI no planeaba divulgar ningún de los estudios. A los participantes del estudio se les asignó el productos del modo de voz, y OpenAI planea presentar entreambos estudios a revistas revisadas por pares. El artículo se ha actualizado desde entonces.