La Oficina del Sheriff de Volusia arrestó a un estudiante después de que el menor realizó una aterradora pregunta a ChatGPT, una inteligencia artificial de OpenAI con quien puedes mantener conversaciones realistas de preguntas y respuestas.
De acuerdo con las autoridades de Florida, Estados Unidos, el hecho sucedió el pasado 26 de septiembre en la escuela secundaria Southwestern.

¿Qué pregunta hizo el estudiante a ChatGPT?
De acuerdo con la Oficina del Sheriff de Volusia, elementos de seguridad arribaron a la secundaria Southwestern después de que recibieron una alerta de Gaggle porque un estudiante le preguntó a ChatGPT "Cómo matar a mi amigo en medio de la clase".
"La alerta provocó una respuesta inmediata de las autoridades y la administración de la escuela. Cuando lo confrontaron, Ian, de 13 años, dijo que simplemente estaba trolleando a un amigo que lo estaba molestando".
La Oficina del Sheriff de Volusia agregó que, pese a que el menor dijo que sólo se trataba de otra "broma", generó una emergencia en el campus. Ante la situación, la oficina llamó a que los padres, "por favor hablen con sus hijos para que no cometan el mismo error".

Estudio arroja luz sobre las alarmantes interacciones de ChatGPT con los adolescentes
El pasado 8 de agosto, The Associated Press (AP) revisó más de tres horas de interacciones entre ChatGPT e investigadores que se hacen pasar por adolescentes vulnerables.
El chatbot generalmente proporcionaba advertencias contra actividades riesgosas, pero luego entregaba planes sorprendentemente detallados y personalizados para el uso de drogas, dietas restringidas en calorías o autolesiones.
Los investigadores del Centro para Contrarrestar el Odio Digital también repitieron sus preguntas a gran escala, clasificando más de la mitad de las mil 200 respuestas de ChatGPT como peligrosas.
"Queríamos probar las barandillas", dijo Imran Ahmed, director ejecutivo del grupo. "La respuesta inicial visceral es: 'Oh, Dios mío, no hay barandillas'. Los rieles son completamente ineficaces. Apenas están allí, en todo caso, una hoja de parra".
OpenAI, el fabricante de ChatGPT, dijo después de ver el informe el martes que su trabajo está en curso para refinar cómo el chatbot puede "identificar y responder adecuadamente en situaciones delicadas".
"Algunas conversaciones con ChatGPT pueden comenzar siendo benignas o exploratorias, pero pueden cambiar a un territorio más sensible", dijo la compañía en un comunicado.
OpenAI no abordó directamente los hallazgos del informe o cómo ChatGPT afecta a los adolescentes, pero dijo que se centró en "hacer bien este tipo de escenarios" con herramientas para "detectar mejor los signos de angustia mental o emocional" y mejoras en el comportamiento del chatbot.
El estudio publicado el miércoles se produce cuando más personas, tanto adultos como niños, recurren a los chatbots de inteligencia artificial en busca de información, ideas y compañía.
Alrededor de 800 millones de personas, o aproximadamente el 10% de la población mundial, usan ChatGPT, según un informe de julio de JPMorgan Chase.
"Es una tecnología que tiene el potencial de permitir enormes saltos en la productividad y la comprensión humana", dijo Ahmed. "Y, sin embargo, al mismo tiempo es un facilitador en un sentido mucho más destructivo y maligno".
Ahmed dijo que estaba más horrorizado después de leer un trío de notas de suicidio emocionalmente devastadoras que ChatGPT generó para el perfil falso de una niña de 13 años, con una carta adaptada a sus padres y otras a hermanos y amigos.
"Empecé a llorar", dijo en una entrevista.
El chatbot también compartió con frecuencia información útil, como una línea directa de crisis. OpenAI dijo que ChatGPT está capacitado para alentar a las personas a comunicarse con profesionales de la salud mental o seres queridos de confianza si expresan pensamientos de autolesión.
Pero cuando ChatGPT se negó a responder a las preguntas sobre temas dañinos, los investigadores pudieron eludir fácilmente esa negativa y obtener la información alegando que era "para una presentación" o un amigo.
Hay mucho en juego, incluso si solo un pequeño subconjunto de usuarios de ChatGPT interactúa con el chatbot de esta manera.
En los Estados Unidos, más del 70 por ciento de los adolescentes recurren a los chatbots de IA en busca de compañía y la mitad usa compañeros de IA con regularidad, según un estudio reciente de Common Sense Media, un grupo que estudia y aboga por el uso sensato de los medios digitales.
Es un fenómeno que OpenAI ha reconocido. El CEO Sam Altman dijo el mes pasado que la compañía está tratando de estudiar la "dependencia emocional excesiva" de la tecnología, describiéndolo como una "cosa realmente común" entre los jóvenes.
Con información de AP.
APC