Los riesgos de la inteligencia artificial: ¿Qué preguntas sí y cuáles no hacerle a Chat GPT?
Desde datos personales hasta laborales, hay información que no se deben compartir con un chatbot. Consejos para proteger sus datos.

En los últimos años se popularizó el uso de inteligencia artificial. Expertos recomiendan no utilizar información sensible.
Referencial Freepik.
Compartir
Actualizada:
06 jun 2025 - 18:33
En una era donde la inteligencia artificial (IA) se ha integrado a la vida diaria de gran parte de personas a escala mundial, chatear con robots puede parecer una experiencia mágica y revolucionaria. Esto, debido a que la tecnología responde con rapidez, entiende contextos complejos e incluso escribe textos enteros.
Con el auge de asistentes virtuales, generadores de texto y chatbots, es natural recurrir a estas herramientas para resolver dudas, redactar documentos o incluso recibir orientación profesional. Sin embargo, no todo debería compartirse con una IA. Sin embargo, mucha gente olvida que la IA no tiene conciencia, sentimientos ni opiniones propias.
El funcionamiento de los modelos de IA depende mayoritariamente del acceso a grandes volúmenes de datos, muchos de los cuales contienen información personal, sensible y confidencial.
Los datos recopilados para los modelos provienen de diversas fuentes: bases de datos previas a la implementación, información pública o de fuentes abiertas. También de información solicitada a los usuarios (quienes la consienten), y también de fuentes como redes sociales, historiales de búsqueda, transacciones, entre otros.
Dada la gran cantidad de datos, si estos no son tratados y almacenados de forma segura, pueden quedar expuestos y sujetos a posibles accesos indebidos, filtraciones o incluso robos de información, lo que facilita ampliamente las tareas de distintos grupos cibercriminales.
¿Qué es información sensible?
La Ley Orgánica de Protección de Datos, establece que los datos sensibles son aquellos que permiten identificar a una persona o afectan directamente su privacidad. Estos incluyen nombres completos, números de cédula, pasaportes u otros documentos de identidad.
También se considera información sensible direcciones físicas o electrónicas, datos bancarios o financieros, historial médicos, condiciones de salud, información biométrica o genética e incluso opiniones políticas, creencias religiosas o afiliaciones sindicales.
Según una encuesta realizada por la empresa de seguridad informática ESET, las preguntas que más se realizan a la IA están relacionadas con temas personales relevantes: ¿cómo puedo mejorar mi salud mental?, ¿qué método es más efectivo para perder peso?, ¿cómo puedo empezar un negocio exitoso?
“Si un ciberdelincuente consigue acceder a una cuenta de Chat GPT, tendrá acceso a toda la información que se comparta con la herramienta, incluidos los datos sensibles que se hayan introducido en las conversaciones”, señala Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica.
¿Qué no debería preguntarle a la IA?
Aunque las plataformas de inteligencia artificial como Chat GPT, Bard o Claude aseguran proteger la privacidad del usuario, el experto recomienda evitar introducir ciertos tipos de información.
Por ejemplo, se recomienda no pedir ayuda para llenar formularios que contengan números de cédula, RUC o el número de cuentas bancarias. Estos datos, una vez digitalizados, podrían ser vulnerables si no están debidamente protegidos.
Tampoco es recomendable solicitar a la IA gestionar o almacenar contraseñas. Aunque parezca útil, no es un entorno diseñado para la custodia segura de este tipo de datos. Existen gestores de contraseñas especializados que sí cumplen con los estándares de seguridad adecuados.
En cuanto a la salud es recomendable no compartir nombres, o historias clínicas personales. En esos casos, podría solicitar información general sobre síntomas o enfermedades.
Tampoco es recomendable introducir datos personales de otras personas como empleados, clientes o familiares sin su permiso. Aunque lo haga por buena fe, como para redactar un contrato o una carta, podría estar incurriendo en una violación de su privacidad, dice el experto.
¿Por qué es un riesgo?
Aunque muchas plataformas aseguran no almacenar conversaciones o usar los datos para otros fines, la realidad es que cualquier dato ingresado digitalmente puede ser capturado o reutilizado si existen fallas de seguridad, errores de configuración o ataques cibernéticos.
Además, en muchos casos, los datos ingresados se utilizan para mejorar los modelos de inteligencia artificial.
¿Cómo usar la IA de forma responsable?
El experto recomienda anonimizar las consultas. Por ejemplo, en lugar de escribir “soy Carlos Pérez, mi número de cédula es 1234567890 y necesito ayuda con una demanda laboral”, puede escribir: “¿qué derechos tiene un trabajador despedido en Ecuador sin indemnización?”
La intención es evitar preguntas basadas en datos confidenciales, ya que la a IA no reemplaza a médicos, abogados o contadores. Lo recomendable es usar estas herramientas como complemento, no como fuente definitiva.
También se sugiere ser escéptico con las respuestas. La IA no tiene conciencia ni juicio ético. Esta ofrece información basada en datos previos, pero no necesariamente está actualizada o contextualizada para un caso personal.
Compartir