Esto ocurre después de que se presentara una demanda, alegando que un chatbot ‘alentó a un adolescente a quitarse la vida’.
La madre de Florida, Megan Garcia, está tomando medidas legales contra Character.ai, afirmando que su hijo de 14 años se quitó la vida como resultado de una interacción con un chatbot que adoptaba la identidad del personaje de Game of Thrones, Daenerys Targaryen.
Dale Allen, el fundador de The Safety-Verse, una iniciativa que tiene como objetivo hacer que la información y los recursos sobre seguridad sean más accesibles, dijo que era importante reconocer que la inteligencia artificial es una tecnología en rápido desarrollo que aún no ha sido completamente probada y testada.
Él dijo: “La inteligencia artificial sigue siendo una tecnología emergente que aún no ha pasado por los extensos aprendizajes y refinamientos de seguridad que hemos logrado en salud y seguridad a lo largo de los años al aprender de accidentes pasados.
“Dado que la IA es un tanto ‘infantil’ en su desarrollo, necesita ser liderada por humanos con controles parentales en su lugar, especialmente para sistemas accesibles o utilizados en el hogar, para proteger a nuestros hijos y garantizar la seguridad a medida que la tecnología madura en los próximos años.
“Necesitamos seguir siendo los guardianes de estas tecnologías, asegurando que el juicio humano y la supervisión guíen su uso, especialmente cuando se trata de proteger a los niños, a los ancianos y a nosotros mismos en nuestros hogares.
“En relación con Character.AI específicamente, necesitamos asegurarnos de darle a la IA la misma atención que le daríamos a plataformas como YouTube, Google, Netflix y cualquier otro sistema que requiera ajustes para niños que aún no son adultos.”