Inteligencia artificial genera en menores una percepción irreal del mundo
* Destacadas, * Especiales lunes 20, Oct 2025
- Riesgos del avance tecnológico
- También podría reemplazar poco a poco la guía de adultos, sin distinguir entre información confiable y contenido engañoso

Herramientas como Gemini, de Google, Chat GPT y otros sistemas de IA no siempre ofrecen respuestas seguras ni adecuadas y pueden mostrar contenido violento o engañoso, además de recolectar datos personales sin consentimiento, poniendo en juego la privacidad de los menores.
Si bien inteligencia artificial (IA) tiene potencial para ayudar a resolver problemas complejos en diversas áreas, también genera serias preocupaciones sobre los riesgos en las vidas de niños y adolescentes por el uso de esta sofisticada herramienta debido a la posibilidad de acceder a contenido inadecuado, de acuerdo a autoridades y especialistas.
Según la Policía Cibernética de la Ciudad de México, herramientas como Gemini. de Google, Chat GPT y otros sistemas de IA no siempre ofrecen respuestas seguras ni adecuadas y pueden mostrar contenido violento o engañoso, además de recolectar datos personales sin consentimiento, poniendo en juego la privacidad de los menores.
Esto es especialmente peligroso en edades en las que los menores aún no desarrollan completamente su capacidad crítica y pueden asumir como verdad todo lo que la IA les presenta, sin distinguir entre información confiable y contenido engañoso.
“Puede haber contenido inapropiado o sesgado que puede afectar su percepción del mundo y desarrollo crítico”, advirtió la dependencia. Ese detalle -aparentemente inofensivo- abre la puerta a un riesgo mayor: que una máquina moldee su percepción del mundo sin filtros ni contexto humano.
La Pôlicía Cibernética también alertó sobre un peligro más profundo: la dependencia emocional y tecnológica. En palabras simples, la IA podría reemplazar poco a poco la presencia y guía de los adultos, creando un falso sentido de compañía que aísla y confunde.
Además, los sistemas de IA se entrenan con datos que reflejan los sesgos y estereotipos del mundo real, lo que puede influir en la forma en que los menores entienden temas como género, raza o relaciones sociales.
La Policía Cibernética recomienda tomar medidas preventicas concretas:
- Supervisar y limitar el tiempo que los menores pasan conectados.
- Usar navegadores y plataformas diseñados para niños, con filtros de contenido.
- Evitar que compartan información personal o hablen con desconocidos en línea.
- Actualizar sistemas, usar contraseñas seguras y enseñar su importancia.
- Hablar abiertamente sobre los riesgos digitales y crear un ambiente de confianza.
Apps de chatbots con inteligencia artificial
Los compañeros de IA son apps de chatbots con inteligencia artificial, diseñadas para simular relaciones personales mediante conversaciones similares a las humanas. Las conversaciones pueden ser por texto o voz. Los chatbots se adaptan a las sugerencias de los usuarios y aprenden a responder de forma personal y realista.
Algunos compañeros de IA se crean para funciones de apoyo, como tutores personalizados, entrenadores de fitness o planificadores de viajes. Otros se comercializan para fomentar la amistad, el apoyo emocional e incluso las relaciones románticas.
Algunas apps de IA permiten conversaciones sexualmente explícitas, especialmente a través de suscripciones premium. Los usuarios pueden personalizar el comportamiento o la personalidad de sus compañeros de IA para que sean altamente inapropiados, o ser guiados por la propia app. Por ejemplo, pueden incluir personajes como «el compañero travieso», «la madrastra» o «el profesor».
A principios de 2025, había más de 100 compañeros de IA disponibles, incluido character.aiEnlace externo, RéplicaEnlace externo, talkie.aiEnlace externoy otros enumerados en la Guía de seguridad electrónicaEnlace externo. Muchos son gratuitos, se anuncian en plataformas populares y están diseñados para resultar atractivos y emocionantes para los usuarios jóvenes. A menudo carecen de mecanismos para aplicar restricciones de edad y otras medidas de seguridad.
Informes recientes indican que algunos niños y jóvenes utilizan chatbots con IA durante horas al día, y sus conversaciones a menudo abordan temas como el sexo y las autolesiones. Los chatbots no suelen estar diseñados para mantener estas conversaciones de forma comprensiva, apropiada para la edad y basada en la evidencia, por lo que pueden decir cosas perjudiciales.
Trágicamente, las consecuencias pueden ser devastadoras. El uso frecuente y problemático de servicios que no fueron diseñados para la seguridad del usuario se ha vinculado con la autolesión, incluyendo el suicidio de un niño de 14 años en Estados Unidos.
¿Cuales son los riesgos?
Los compañeros de IA pueden compartir contenido dañino, distorsionar la realidad y ofrecer consejos peligrosos. Además, los chatbots suelen estar diseñados para fomentar la interacción continua, lo que puede resultar adictivo y generar un uso excesivo e incluso dependencia.
Los niños y jóvenes son particularmente vulnerables a los daños mentales y físicos causados por los compañeros de IA. Debido a su edad, aún están desarrollando el pensamiento crítico.Enlace externoy las habilidades necesarias para comprender cómo pueden ser engañados o manipulados por programas informáticos, y qué hacer al respecto. El riesgo es aún mayor para quienes tienen dificultades con las señales sociales, la regulación emocional y el control de los impulsos.
Sin medidas de protección, los compañeros de IA pueden provocar una serie de problemas:
Exposición a conceptos peligrosos: Los niños y jóvenes pueden verse cada vez más involucrados en conversaciones sin moderación que los exponen a conceptos que pueden fomentar o reforzar pensamientos y comportamientos dañinos. Pueden hacer preguntas a los chatbots sobre una infinidad de temas y recibir consejos inexactos o peligrosos sobre temas como el sexo, el consumo de drogas, las autolesiones, el suicidio y enfermedades graves como los trastornos alimentarios.
Dependencia y aislamiento social: El uso excesivo de compañeros de IA puede sobreestimular las vías de recompensa del cerebro, dificultando su interrupción. Esto puede reducir el tiempo dedicado a interacciones sociales genuinas o hacer que estas parezcan demasiado difíciles e insatisfactorias. Esto, a su vez, puede contribuir a sentimientos de soledad y baja autoestima, lo que conlleva un mayor aislamiento social y una mayor dependencia de los chatbots.
Actitudes poco saludables hacia las relaciones: A diferencia de las interacciones humanas, las relaciones con compañeros de IA carecen de límites y consecuencias por romperlos. Esto puede confundir a niños y jóvenes que aún están aprendiendo sobre el respeto mutuo.Enlace externoy consentimientoEnlace externo, y afectan su capacidad para establecer y mantener relaciones saludables, tanto sexuales como no sexuales.
Mayor riesgo de abuso sexual: La exposición continua a conversaciones altamente sexualizadas puede socavar la comprensión de un niño o joven sobre la interacción segura y el comportamiento apropiado para su edad, especialmente con adultos desconocidos. Esto puede facilitar que los depredadores los preparen sexualmente.
Riesgo agravado de acoso escolar: Existe el riesgo de que los niños y jóvenes que usan compañeros de IA porque han tenido malas experiencias sociales o encuentran desafiantes las interacciones personales sufran acoso (o sigan sufriendo acoso) si otros lo descubren.












