ChatGPT fue el primer chatbot de IA en obtener reconocimiento mundial. Desde su lanzamiento, han surgido muchos otros chatbots de IA capaces que ofrecen una gama más amplia de opciones para satisfacer sus necesidades específicas. Los chatbots de IA se han convertido en herramientas extremadamente populares y útiles para obtener información, consejos y asistencia sobre diversos temas. Puede usarlos para crear un plan de negocios, planificar su jardín, escribir artículos o códigos, redactar correos electrónicos, generar arte, imágenes, videos y prácticamente cualquier cosa que pueda imaginar.
Sin embargo, cuanto más avanzados e integrados se vuelven estos asistentes de IA en nuestras vidas, más cautelosos debemos ser al compartir información personal con ellos. ¿Por qué? Porque no se les puede confiar datos confidenciales.
Para comprender los riesgos de privacidad asociados con los chatbots de IA, es importante saber cómo funcionan. Estos chatbots recopilan y almacenan las transcripciones completas de las conversaciones que tienen lugar cuando interactúas con ellos. Esto incluye todas las preguntas, indicaciones, mensajes que envía al chatbot y las respuestas del chatbot. Las empresas detrás de estos asistentes de IA analizan y procesan estos datos conversacionales para entrenar y mejorar sus grandes modelos lingüísticos.
Cuando los usuarios comparten información personal o confidencial con un chatbot de IA, pierde control sobre dónde van esos datos o cómo pueden usarse. Esta información se almacena en servidores que pueden volverse vulnerables a intentos de piratería o infracciones. Estos servidores contienen una gran cantidad de información que los ciberdelincuentes pueden explotar de diversas formas. Pueden infiltrarse en los servidores, robar los datos y venderlos en los mercados de la web oscura. Además, los piratas informáticos pueden utilizar estos datos para descifrar contraseñas y obtener acceso no autorizado a sus dispositivos.
Cualquier dato que proporcione podría quedar expuesto, pirateado o utilizado indebidamente, lo que provocaría robo de identidad, fraude financiero o la exposición pública de información íntima que preferiría mantener en privado. Proteger su privacidad significa ser selectivo con los detalles que revela a los chatbots de IA.
Para proteger su privacidad e información personal, sea selectivo con lo que comparte con los chatbots de IA. Los especialistas de Bitdefender recomiendan tener mucho cuidado con este tipo de datos:
- Información de identificación personal: evite compartir piezas clave de información de identificación personal, como su nombre completo, dirección particular, número de teléfono, fecha de nacimiento, número de seguro social u otros números de identificación gubernamental. Cualquiera de estos puede explotarse para hacerse pasar por usted, lo que provocaría robo de identidad, fraude financiero u otro uso delictivo de sus datos personales.
- Nombres de usuario y contraseñas: nunca comparta contraseñas, PIN, códigos de autenticación u otras credenciales de inicio de sesión con chatbots de IA. Incluso proporcionar pistas sobre sus credenciales, podría ayudar a los piratas informáticos a acceder a sus cuentas.
- Su información financiera: nunca debe compartir información de cuentas financieras, números de tarjetas de crédito o detalles de ingresos con chatbots de IA. Mantenga privada su información financiera confidencial, ya que podría fácilmente poner en peligro sus cuentas y activos financieros.
- Pensamientos privados e íntimos: si bien los chatbots de IA pueden servir como un oído comprensivo, debe evitar revelar pensamientos, experiencias u opiniones profundamente personales que no se sentiría cómodo compartiendo públicamente. Cualquier cosa, desde puntos de vista políticos o religiosos hasta problemas en las relaciones o luchas emocionales, podría quedar expuesto si los registros de conversaciones son pirateados o mal manejados.
- Información confidencial relacionada con el trabajo: si trabaja con información patentada, secretos comerciales, conocimiento interno o datos confidenciales del lugar de trabajo de cualquier tipo, no hable de esto con chatbots públicos de IA. Evite el uso de chatbots de IA para resumir actas de reuniones o automatizar tareas repetitivas, ya que esto plantea el riesgo de exponer involuntariamente datos confidenciales o violar acuerdos de confidencialidad y protecciones de propiedad intelectual de su empleador.
Las principales empresas de tecnología como Apple, Samsung, JPMorgan y Google incluso han implementado políticas para prohibir a sus empleados el uso de chatbots de IA para trabajar.
- Su trabajo creativo original: nunca comparta sus ideas originales con chatbots a menos que esté dispuesto a compartirlas potencialmente con todos los demás usuarios.
- Información relacionada con la salud: Una encuesta realizada por la empresa de tecnología sanitaria Tebra reveló que:
- 1 de cada 4 estadounidenses tiene más probabilidades de hablar con un chatbot de IA en lugar de asistir a terapia.
- Más del 5% de los estadounidenses recurrió a Chat GPT para obtener un diagnóstico médico y seguir sus consejos.
Proteger sus datos de salud significa proteger su acceso a la atención médica adecuada, mantener la confidencialidad y proteger contra posibles violaciones de la privacidad o el uso indebido de información médica confidencial. Por lo tanto, nunca reveles tus condiciones médicas, diagnósticos, detalles de tratamiento o regímenes de medicación a chatbots de IA. En su lugar, hable con profesionales de la salud calificados en un entorno seguro y privado.
Los usuarios pueden considerar tres puntos para usar chatbots de forma segura y proteger tu privacidad.
- Tenga cuidado con la información que proporciona.
- Lea las políticas de privacidad y busque la configuración de privacidad del chatbot.
- Utilice la opción para optar por que sus datos no se utilicen para entrenar modelos de lenguaje cuando estén disponibles.
En general, usar el modo incógnito/privado, borrar el historial de conversaciones y ajustar la configuración de datos son las principales formas de limitar la recopilación de datos por parte de los chatbots de IA. La mayoría de los principales proveedores de chatbots de IA ofrecen estas opciones.
Si bien es aconsejable ser cauteloso, ¿qué pasaría si pudiera llevar la protección de la privacidad aún más lejos aprovechando un asistente de inteligencia artificial diseñado explícitamente para protegerlo?
Scamio es nuestro chatbot de próxima generación con tecnología de inteligencia artificial, diseñado para detectar estafas y actividades fraudulentas. Puede enviar a Scamio el texto engañoso, el correo electrónico, el mensaje instantáneo, el enlace o incluso el código QR que recibió, y le proporcionará un análisis instantáneo para determinar si se trata de un intento de estafa.
Para iniciar una conversación, visite scamio.bitdefender.com/chat o chatee directamente con Scamio en Facebook Messenger.
Para mayor información sobre ciberseguridad y tecnología, visite www.bitdefenderperu.com