
Un chat para desahogarse y un riesgo oculto: qué pasa con tus datos al hablar con IA
Otros Temas21/01/2026
REDACCIÓN
La escena se repite en silencio y a cualquier hora: alguien se siente mal, abre una app y escribe lo que no cuenta en voz alta. Los chatbots de inteligencia artificial aparecen como interlocutores rápidos, disponibles y sin gestos de juicio. Ese uso cotidiano, cuando se corre del entretenimiento o la productividad y se mete en la intimidad, deja una pregunta incómoda: qué pasa con todo lo que se entrega en una conversación que parece privada, pero transcurre dentro de una plataforma comercial.

En la Argentina, el fenómeno ya tiene números que lo dimensionan. Según una investigación reciente de Kaspersky, el 20% de los usuarios de IA reconoce que conversa con chatbots cuando se siente triste o atraviesa un mal momento emocional. El dato se parece al de otros países de la región: la fuente menciona México (21%) y Chile (22%), una señal de que no se trata de una rareza local sino de una práctica extendida.
Lo que cambia el escenario no es solo la cantidad de personas que lo hace, sino el tipo de información que circula en esos chats. Una charla de desahogo suele incluir detalles personales, rutinas, conflictos familiares, nombres, lugares y hasta referencias económicas. La fuente advierte que esa sensación de “entorno seguro” puede llevar a compartir más de lo habitual, aunque la mayoría de estas herramientas pertenece a empresas que recopilan y procesan datos.
OTRAS NOTICIAS:
El punto central pasa por el destino de esas conversaciones. El texto fuente plantea que “las interacciones, incluso aquellas relacionadas con estados emocionales, pueden almacenarse, analizarse y utilizarse para distintos fines”, desde la mejora del servicio hasta la personalización de experiencias digitales. En la práctica, el chat deja de ser solo un intercambio y se transforma en un registro, con valor para modelos de IA, métricas internas o estrategias comerciales.
La época del año también aparece como un factor que ayuda a entender por qué esta conducta se vuelve más visible. La nota menciona el tercer lunes de enero, conocido como Blue Monday, asociado al regreso a la rutina, el impacto económico de las fiestas y elementos climáticos que influyen en el ánimo. En ese contexto, muchas personas buscan ser escuchadas y encuentran respuestas inmediatas, con la promesa implícita de privacidad que, en términos técnicos, nunca queda garantizada.
El uso de chatbots como contención emocional se ve con más fuerza en los más jóvenes. A nivel global, el 35% de usuarios de la generación Z y millennials afirma recurrir a herramientas de IA en momentos de malestar, mientras que en mayores de 55 años el porcentaje baja a 19%, según la misma investigación. La diferencia no solo refleja hábitos digitales distintos: también expone que quienes más usan estas plataformas tienden a naturalizar la conversación íntima con sistemas que funcionan por recolección y procesamiento de datos.
A esa capa se suma una dimensión de riesgo que va más allá de la privacidad: la ciberseguridad. La fuente advierte que conversaciones que parecen cerradas pueden quedar expuestas por fallas técnicas, ataques informáticos o filtraciones. También circulan bots falsos creados para extraer información sensible con fines delictivos, con posibles consecuencias como fraude, robo de identidad o extorsión, y un impacto que no siempre se mide solo en plata.
OTRAS NOTICIAS:
En ese tramo, el texto incluye una advertencia directa de la compañía. María Isabel Manjarrez, investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky, sostuvo: “Al hablar con herramientas de IA sin cautela, los usuarios pueden enfrentar riesgos de privacidad. Estas aplicaciones pueden ser vulneradas y derivar en la filtración de conversaciones personales. Además, no toda la información que ofrecen es precisa ni reemplaza el acompañamiento profesional”. La frase condensa dos aspectos: el riesgo técnico y el límite de estos sistemas frente a situaciones de salud mental.
Para reducir exposición, la recomendación de especialistas se enfoca en decisiones simples y repetibles. La fuente sugiere revisar políticas de privacidad de herramientas como ChatGPT o Gemini antes de iniciar una charla, evitar compartir datos personales o financieros, contrastar la información que entregan los bots y recurrir a profesionales cuando haga falta. También plantea usar plataformas reconocidas y proteger dispositivos con soluciones de seguridad, un recordatorio básico que suele quedar afuera cuando el chat se usa en un momento de vulnerabilidad.
El estudio que sostiene estos datos se realizó en noviembre de 2025 y reunió a 3000 personas de 15 países, entre ellos Argentina, Chile, México, España, Reino Unido y Alemania. En esa foto, la IA gana espacio como “interlocutor emocional”, pero el informe insiste en un punto: el autocuidado también incluye resguardar la información personal. El gesto de escribir para sentirse acompañado puede aliviar en el momento, aunque deja huellas digitales que conviene entender antes de entregarlas.














