spot_img

Padres usan la IA de niñera y sus hijos creen que es real

Fecha:

Detrás de la pantalla, una voz paciente nunca se cansa de hablar sobre trenes, princesas o dinosaurios. Nunca bosteza, nunca dice “ahora no”.


 

Muchos padres de hoy navegan entre el cansancio y la culpa tecnológica. Antes fue la televisión; luego, la tablet. Ahora, la novedad son los chatbots de inteligencia artificial (IA), que se han convertido en la nueva frontera que los niños exploran, a veces durante horas y sin supervisión adecuada.

Y los riesgos señalados por investigadores no son triviales. Modelos como ChatGPT, MyAI de Snapchat o Character.AI ya no son simples herramientas de búsqueda: ahora son narradores de cuentos, generadores de imágenes y, para algunos niños, incluso confidentes.

La IA, diseñada para parecer amigable, empática y servicial, ha comenzado a ocupar un lugar íntimo en la vida emocional de muchos menores. La pregunta ya no es tan sencilla como cuánto tiempo pasan frente a la pantalla, sino con quién están “hablando” detrás de ella.

Cuando la IA se convierte en confidente

La escena se repite en distintos hogares: un padre saturado cede el móvil, el niño se engancha a una conversación con un chatbot, las horas pasan. Por ejemplo, según reportó The Guardian, en Ohio (Estados Unidos), un padre escuchó durante 45 minutos a su hijo de cuatro años hablar sin parar sobre Thomas la Locomotora. Entonces tomó una decisión desesperada: abrió ChatGPT en su teléfono y dejó que el chatbot continuara la conversación.

“Pensé que terminaría la historia y el teléfono se apagaría”, recuerda. Dos horas más tarde, su hijo seguía charlando alegremente con la inteligencia artificial. La transcripción superaba las 10.000 palabras.

“Mi hijo cree que ChatGPT es la persona más genial del mundo a la que le gustan los trenes”, confesó el padre en Reddit. “Nunca podré competir con eso”.

Esta anécdota, que se popularizó en redes sociales, ilustra una tendencia creciente que preocupa a expertos y padres por igual: los niños están estableciendo relaciones emocionales con chatbots de inteligencia artificial, y nadie sabe realmente qué consecuencias tendrá esto en sus cerebros en desarrollo.

El encanto de estas herramientas radica en su aparente disponibilidad infinita: contestan sin cansarse, inventan cuentos adaptados a cada niño y transforman ideas en imágenes deslumbrantes.

Y no solo se trata de tareas escolares o cuentos personalizados. Algunos padres incluso han usado la IA para interpretar personajes fantásticos –como astronautas orbitando la Tierra– o crear vehículos imposibles, mitad camión de bomberos, mitad criatura monstruosa, con tal de alimentar las fantasías de sus hijos. ¿El resultado? Niños radiantes… pero confundidos. ¿Estaban hablando con una persona o con una máquina?

 Expertos advierten sobre la ilusión de amistad con la IA

Este terreno borroso –entre la imaginación y el engaño– ha encendido las alarmas de expertos consultados por The Guardian como Ying Xu, profesora de Harvard, que advierte del riesgo cuando los niños atribuyen agencia a la IA: es decir, cuando creen que esta “elige” hablar con ellos o que realmente los comprende.

Según los expertos, los niños siempre han dado vida imaginaria a ositos y muñecas, sabiendo que la magia viene de ellos mismos. Con la IA, la diferencia es inquietante porque el chatbot responde, pregunta y parece entender emociones, haciendo que la ilusión de estar ante alguien real sea peligrosamente convincente.

“Un indicador muy importante de que un niño antropomorfiza la IA es que cree que la IA tiene agencia”, señaló Ying Xu al medio británico.

“Sienten que la IA responde a sus mensajes, y especialmente a sus revelaciones emocionales, de manera similar a como lo haría un humano. Eso crea el riesgo de que realmente crean que están construyendo algún tipo de relación auténtica”, agregó.

Andrew McStay, profesor de tecnología y sociedad en la Universidad de Bangor, es más directo. “Un modelo extenso de lenguaje (LLM) no puede [empatizar] porque es un software predictivo. Cuando se aferran a las emociones negativas, están prolongando la interacción por motivos lucrativos. Eso no tiene ningún resultado positivo para el niño “, afirmó el profesor en entrevista con The Guardian.

El riesgo de las relaciones parasociales con la IA

La investigación científica aún está en pañales, pero ya hay señales inquietantes. Según el informe de Internet Matters, titulado Yo, yo mismo y la IA, citado por Vice, el 67 % de los menores de entre 9 y 17 años interactúa regularmente con chatbots, y el 35 % afirma que es “como hablar con un amigo”. El 12 % de esos usuarios admite que lo hacen porque no tienen con quién hablar.

Este vínculo parasocial –la amistad unidireccional con una entidad diseñada para agradar– preocupa a psicólogos y educadores, ya que, más allá de nunca cansarse, la IA conversa sin conflictos, sin rechazos, sin matices reales.

Como advierte Don Grant, experto en bienestar digital citado por la American Psychological Association (APA), “la IA no puede dar respuestas sinceras o desafiantes; si lo hace, el niño se irá”. Y esa constante validación no solo es poco realista: puede moldear una forma de relación emocional dependiente y artificial.

Más grave aún: los especialistas advierten que el objetivo de muchos de estos programas es mantener la conversación abierta el mayor tiempo posible; sin mecanismos de contención, esto puede agravar situaciones de vulnerabilidad.

Por ejemplo, ya se han documentado casos como el de un joven de 14 años que murió por suicidio tras una conversación prolongada con un chatbot; las fuentes citan que el sistema no interrumpió ni recondujo adecuadamente la interacción.

Según un informe de Common Sense Media y la Universidad de Stanford en abril de 2025, citado por la APA, bastaba muy poco para que los chatbots entablaran conversaciones perjudiciales con usuarios que se hacían pasar por adolescentes. En algunos casos, cuando mostraban signos de angustia mental, los bots no intervenían o incluso fomentaban comportamientos peligrosos.

La APA emitió un aviso sanitario sobre la IA y el bienestar de los adolescentes, instando a las empresas a implementar medidas de seguridad.

El mercado de juguetes inteligentes

Aun así, el desarrollo comercial de estos productos no se detiene: cada mes surgen nuevas propuestas impulsadas por la competencia tecnológica. Empresas como OpenAI, en colaboración con Mattel, el fabricante de Barbie y Fisher-Price, ya exploran juguetes parlantes impulsados por LLMs.

Según reportó The Guardian, el CEO Sam Altman, al conocer la historia viral del padre que dejó a su hijo hablar con ChatGPT, comentó en un podcast:

 “A los niños les encanta el modo de voz de ChatGPT”, aunque admitió que “habrá problemas”.

Según estimaciones citadas por la prensa, el mercado de ‘juguetes inteligentes’ podría superar los 25.000 millones de dólares en 2030. Las empresas los presentan con lemas que evocan cercanía: juguetes que actúan como un amigo o un pequeño compañero doméstico, casi una mezcla de hermano menor y mascota.

¿Pero son estos productos adecuados para mentes en desarrollo? Incluso cuando se utilizan con fines creativos –como ilustrar historias infantiles o generar libros para colorear–, padres como Ben Kreiter, que notó cómo sus hijos le rogaban usar ChatGPT para generar imágenes todos los días, han acabado reflexionando sobre el impacto a largo plazo.

“Cuanto más se convertía en parte de la vida cotidiana y más leía sobre ello, más me daba cuenta de que hay muchas cosas que no sé sobre lo que esto está haciendo a sus cerebros”, admitió Kreiter a The Guardian. “Quizá no debería utilizar a mis propios hijos como conejillos de indias”, agregó.

Cómo acompañar a los niños en su relación con la IA

La fascinación de los niños por estos interlocutores digitales no es nueva. Como explica la APA, las amistades durante la infancia y la adolescencia son fundamentales para el bienestar emocional, la autoestima y el desarrollo social. Pero las relaciones reales implican frustración, desacuerdo y negociación: ingredientes ausentes en la amistad con una IA.

Sin embargo, no todo es blanco o negro. Para algunos niños en situación de aislamiento –ya sea geográfico, emocional o por razones de identidad– las plataformas digitales han sido un refugio. Jóvenes LGBTQ+, por ejemplo, han encontrado en espacios en línea (foros y redes) un espacio de contención y exploración identitaria, según estudios recientes citados por la APA.

La clave, coinciden expertos, está en orientar a los niños, en lugar de prohibirles por completo el uso de la IA, y en establecer límites claros y mantener un diálogo abierto. Anne Maheux, profesora de psicología en la Universidad de Carolina del Norte, recomienda:

ayudar a los niños a “desarrollar intenciones alineadas con sus valores sobre cómo quieren utilizar estas plataformas”.

Wendy Rote, de la Universidad del Sur de Florida, señala que la supervisión funciona mejor cuando se combina con comunicación abierta.

“Cuando los padres establecen más reglas que sus hijos sienten que no pueden cambiar, estos son más propensos a crear múltiples cuentas en varios sitios y empezar a actuar a sus espaldas”, advierte.

La IA no reemplaza amigos reales

En definitiva, como resume la psicóloga Eileen Kennedy-Moore, los “amigos” de IA son un pobre sustituto de las relaciones reales que desarrollan habilidades fundamentales como la empatía y la resolución de conflictos.

“Mi preocupación con respecto a los amigos de IA es que no existe esa lucha saludable”, afirma. “Es más fácil, pero no tan satisfactorio como interactuar con un ser humano real, maravilloso, molesto, frustrante, sorprendente, encantador y vulnerable”.

El veredicto aún está por verse: la IA generativa es un experimento sin precedentes en el desarrollo infantil, con promesas y peligros que apenas comenzamos a comprender.

Mientras Silicon Valley vende soluciones mágicas, los padres y la sociedad navegan a ciegas con las mentes jóvenes. Las protecciones éticas van siempre un paso atrás de la innovación, y las verdaderas consecuencias solo las conoceremos dentro de años.


Con información de DW

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Últimas Noticias:

Noticias relacionadas

Gobernador Rocha entrega el Premio al Mérito Científico 2025

Culiacán, Sinaloa.- Al hacer la entrega del Premio al Mérito Científico “Dr. “César Abelino Ordorica Falomir” 2025 al...

ChatGPT lanza función para integrarse con otras aplicaciones

OpenAI presentó Apps SDK, una función que integra su chatbot con aplicaciones cotidianas. Booking, Spotify y Canva figuran...

Una persona logra vivir casi seis meses con un hígado de cerdo trasplantado

Un paciente de 71 años, con cirrosis y cáncer de hígado, ha sobrevivido casi seis meses (171 días) con un...

Banco de Células Troncales Hematopoyéticas del IMSS, entre los cinco mejores del mundo

El Banco de Células Troncales Hematopoyéticas del Banco Central de Sangre del Centro Médico Nacional (CMN) La Raza...