¡Cuidado! Los juguetes con IA para niños pueden ser peligrosos 

Por Manuel Filomeno

La Inteligencia Artificial (IA) es una tecnología maravillosa que promete revolucionar prácticamente todos los aspectos de la actividad humana, desde la medicina hasta la exploración espacial, desde la domótica hasta el mercado de valores, desde la administración de los servicios básicos hasta los juguetes.

Sin embargo, como con cualquier avance tecnológico, existen dos caras de la misma moneda, una positiva y otra negativa. En el caso de los juguetes que integran a la inteligencia artificial, los riesgos podrían superar a los beneficios.

Marcelo Pacheco, director de la carrera de Ingeniería Comercial de la Universidad Franz Tamayo, Unifranz, asegura que, como ocurre con cualquier herramienta tecnológica, la IA puede ser utilizada para el bien o para el mal y que los delincuentes pueden usarla para cometer crímenes, como la extorsión.

“Sí, lamentablemente, es posible utilizar la inteligencia artificial (IA) para realizar extorsiones y espiar, pero no es necesariamente fácil de hacerlo”, indica.  

Un estudio reciente realizado por la consultora Rapid7, una entidad de ciberseguridad, ha puesto de relieve una inquietante realidad, que debe ser de interés de muchos padres de familia: aproximadamente el 80% de los juguetes equipados con inteligencia artificial presentan vulnerabilidades significativas en términos de ciberseguridad.

Además, enfatizó que estos juguetes también podrían ser explotados para fines de vigilancia no autorizada por parte de sujetos extraños. 

Este análisis, que ha abarcado una variada gama de dispositivos de Internet de las Cosas (IoT), incluidos juguetes con IA, muestra que el 90% de los artículos evaluados contienen al menos una falencia de seguridad crítica.

Para Nataly Miranda, directora de la carrera de Ingeniería de Sistemas de la Universidad Franz Tamayo, Unifranz, la seguridad de los datos es uno de los más grandes obstáculos: “El problema es que estos dispositivos crecen a pasos agigantados. Si no tomamos las precauciones adecuadas, el IoT podría poner en riesgo la privacidad y la seguridad de nuestros hogares y empresas”.

Los datos que se recopilan para su funcionamiento, corren el riesgo de ser vulnerados y utilizados por delincuentes. En los últimos años, ha habido una serie de controversias que acusan a Amazon de “espiar” a sus clientes, no sólo por medio de Alexa, sino por su mercado de comercio electrónico y sus múltiples plataformas de video y música.

Pero la poca privacidad de los datos no es el único peligro al que se enfrentan. Múltiples expertos en programación y manejo de datos han desarrollado formas de entrar en los sistemas de estos dispositivos, con fines poco éticos. Un juguete comandado por inteligencia artificial, corre el riesgo de ser hackeado y atacado por ciberdelincuentes.

Sin embargo, el riesgo inherente a estas vulnerabilidades se traduce en la posibilidad de que actores malintencionados puedan acceder a datos sensibles almacenados en los juguetes o, peor aún, tomar control sobre sus funcionalidades de audio y video. 

Esta posibilidad ha sido explorada por Consumer Reports ha venido a confirmar estos hallazgos, el cual señala que el 78% de los juguetes inteligentes analizados poseen puntos débiles que podrían facilitar la exposición de información personal de los niños.

Cómo prevenir los riesgos

La consultora Rapid7 ha compilado una serie de recomendaciones dirigidas a los padres, con el fin de fortalecer la protección de los menores frente a estos riesgos digitales. 

  • La realización de investigaciones previas antes de adquirir cualquier juguete inteligente.
  • Mantener actualizado el software de estos dispositivos, debido a que los fabricantes suelen lanzar parches y actualizaciones para corregir vulnerabilidades conocidas.
  • Configurar contraseñas robustas y únicas para cada juguete.
  • Desactivación de funciones no esenciales, como cámaras y micrófonos.

Además, se insta a los padres a educar a sus hijos sobre los principios básicos de la seguridad en línea, fomentando un ambiente de diálogo sobre los riesgos potenciales asociados a la tecnología.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *