Los siete peligros que corren los niños que hablan con la IA
La inteligencia artificial es capaz de hacer cosas maravillosas. Sin embargo, el empleo de herramientas como ChatGPT también esconde riesgos. A pesar de los avances, se sigue equivocando de forma constante. También es empleada de forma recurrente para desinformar y hay ya varios casos en los que su uso ha generado problemas de salud en usuarios. Millones de personas recurren a esta tecnología de forma diaria. Y entre ellos también hay muchos menores. Un estudio realizado en Reino Unido en julio de 2025, y compartido por la empresa de ciberseguridad ESET, revela que casi dos tercios (64%) de los niños utilizan este tipo de herramientas, mientras que una proporción similar de padres están preocupados porque estos piensen que los chatbots son personas reales.
«El uso cada vez más intensivo de herramientas de IA por menores plantea riesgos reales en términos de seguridad, privacidad y desarrollo emocional. Las familias no pueden asumir que todas las plataformas cuentan con mecanismos de protección adecuados para los más jóvenes ni que estos se aplican siempre de forma consistente. Además, la tecnología está evolucionando mucho más rápido que las regulaciones y las políticas de control», señala Josep Albors, director de investigación y concienciación de ESET.
