Expertos en ciberseguridad encendieron las alarmas sobre los riesgos de compartir información confidencial en plataformas de inteligencia artificial como ChatGPT, debido a que muchos usuarios ingresan datos personales sin conocer cómo pueden ser almacenados o utilizados.
La advertencia tomó fuerza luego de que especialistas recordaran que en estos chats algunas personas llegan a compartir contraseñas, datos bancarios, documentos empresariales, información médica y conversaciones privadas, exponiéndose a posibles fraudes o filtraciones de seguridad.
De acuerdo con expertos de ESET, el principal consejo es evitar ingresar información sensible en herramientas de IA. Mario Micucci explicó que varias plataformas utilizan las interacciones de los usuarios para mejorar sus sistemas, por lo que compartir datos privados sin conocer las políticas de almacenamiento representa un riesgo innecesario.
Aunque herramientas como ChatGPT se han convertido en apoyo cotidiano para millones de personas, especialistas recalcan que el problema no es la inteligencia artificial en sí, sino el uso inadecuado que algunos usuarios hacen de estas plataformas. Además, recomendaron desconfiar de enlaces sospechosos relacionados con IA y verificar siempre que se esté ingresando a sitios oficiales.