Las 5 cosas que nunca debes compartir con ChatGPT

Para evitar riesgos de seguridad y privacidad, es clave saber qué información no debe proporcionarse a herramientas de inteligencia artificial como ChatGPT.

Tecnología02 de abril de 2025
in1743691387523

Para evitar riesgos de seguridad y privacidad, es clave saber qué información no debe proporcionarse a herramientas de inteligencia artificial como ChatGPT.

Desde su lanzamiento en 2022, ChatGPT ha cambiado la forma en que interactuamos con la tecnología, permitiendo conversaciones fluidas con una inteligencia artificial. Sin embargo, a medida que su uso se expande, también crecen las preocupaciones sobre la privacidad y la seguridad de los datos que los usuarios comparten con esta herramienta.

La reciente actualización de GPT-4o, que incluye la capacidad de generar imágenes, desató un fenómeno en redes sociales, con miles de personas subiendo sus fotos para transformarlas en ilustraciones al estilo del Studio Ghibli. Pero detrás de esta tendencia surge un interrogante clave: ¿qué sucede con todos estos datos y quién controla su uso?

Para evitar filtraciones, hackeos y otros riesgos de ciberseguridad, es fundamental ser conscientes de qué información no debemos compartir con ChatGPT ni con ningún otro chatbot de inteligencia artificial. A continuación, cinco tipos de datos que siempre deben mantenerse en privado:

1. Imágenes con datos biométricos

Subir fotos personales, especialmente aquellas en las que aparece el rostro, puede exponer información biométrica valiosa. Aunque es divertido ver una versión animada de uno mismo, es importante recordar que estas imágenes pueden ser utilizadas para recopilar datos sensibles sin que el usuario lo sepa.

2. Datos personales

Información como el número de documento, la fecha de nacimiento, la dirección o incluso trayectos habituales no deben compartirse con la IA. Estos datos pueden ser utilizados para identificar a una persona o comprometer su seguridad en caso de un ataque cibernético.

3. Resultados médicos

Compartir diagnósticos o estudios médicos con ChatGPT es una mala idea. Además de que la IA no puede reemplazar la opinión de un profesional de la salud, estos datos pueden filtrarse y quedar expuestos a terceros, generando riesgos para la privacidad del usuario.

4. Datos bancarios

Nunca se deben proporcionar números de tarjetas de crédito, claves de acceso a cuentas bancarias o información de transacciones financieras. Aunque ChatGPT está diseñado para proteger la privacidad, no cuenta con los mismos protocolos de seguridad que un sitio web bancario, lo que lo convierte en un objetivo potencial para ataques informáticos.

5. Información corporativa confidencial

Si se usa ChatGPT con fines laborales, es importante evitar compartir información sensible de la empresa. Documentos internos, estrategias comerciales o datos de clientes podrían quedar expuestos, generando riesgos legales y financieros para la compañía.

Fuente: LT10 - TN TECNO

Te puede interesar
ScreenHunter_036

¿Cuánta agua consume realmente ChatGPT?

Tecnología13 de junio de 2025

El director de OpenAI reveló cifras concretas sobre el consumo de agua y energía de cada interacción con ChatGPT, en un intento por despejar mitos sobre el impacto ambiental de la Inteligencia Artificial.

Lo más visto
ale

De los Alpes hacia Argentina: Redescubriendo Nuestras Raíces Suizas del Valais

Locales24 de junio de 2025

¿Alguna vez te has preguntado de dónde venís? ¿Quiénes fueron tus antepasados y cómo vivieron? Para muchos, las respuestas a estas preguntas residen en la genealogía, un campo fascinante que nos permite reconstruir la historia de nuestras familias, una generación a la vez. Mi nombre es Alejandro Eberhardt-Eggel, y me he sumergido en las profundidades de los archivos del Valais, Suiza, con el objetivo de desentrañar los lazos familiares que conectan a sus habitantes a lo largo de los siglos.