Recomendaciones sobre el uso responsable de la inteligencia artificial

La inteligencia artificial (IA) se ha presentado como una de las tecnologías en constante crecimiento tanto en el ámbito profesional como en la vida cotidiana de todos nosotros. Su uso abarca desde los asistentes virtuales y motores de búsqueda hasta sectores estratégicos como los negocios, la educación, la medicina o la industria tecnológica en general.

En el entorno empresarial, la IA optimiza procesos, automatiza tareas y mejora la toma de decisiones mediante el análisis de datos. En el sector educativo, facilita herramientas de apoyo al aprendizaje y la personalización de contenidos. En la vida diaria, su integración es visible en los dispositivos inteligentes, en plataformas digitales y diferentes servicios en línea que utilizan algoritmos predictivos para ofrecer recomendaciones y respuestas automatizadas.

Organizaciones como OpenAI (por mencionar una de las más conocidas) han impulsado el desarrollo de modelos avanzados capaces de generar contenido, procesar grandes volúmenes de información y ejecutar tareas complejas con distintos niveles de autonomía.

Desde un punto de vista técnico, la inteligencia artificial se basa en disciplinas como el aprendizaje automático (machine learning), el aprendizaje profundo (deep learning), la estadística y el análisis masivo de datos. Estas áreas permiten a los sistemas identificar patrones, entrenarse con grandes conjuntos de información y mejorar su desempeño con el tiempo.

Uso responsable de la inteligencia artificial 

El crecimiento sostenido de la IA plantea, además, debates sobre su regulación, ética y transformación del empleo, en un contexto donde su expansión continúa redefiniendo la relación entre la tecnología y la sociedad. El potencial de la IA conlleva también riesgos significativos si no se gestiona adecuadamente. Dos aspectos críticos son la privacidad y la seguridad.

Por ello, en esta publicación voy a tomar como base el documento de la Agencia Española de Protección de Datos (AEPD) titulado “Cuidado con lo que le confías”, el cual, ofrece recomendaciones sobre el uso responsable de la inteligencia artificial. También desarrollaré conjuntamente los posibles riesgos para la privacidad y la seguridad al usar herramientas de inteligencia artificial. De dicho documento, mencionaré algunos de los puntos más importantes.

Recomendaciones prácticas para minimizar los posibles riesgos

Como siempre suelo mencionar, la seguridad en los entornos digitales no depende únicamente de la tecnología en sí, sino también del comportamiento del usuario. En el uso de la IA también hay que adoptar una serie de medidas básicas como:

1- No compartas información personal: El uso de sistemas de Inteligencia Artificial implica el intercambio de información con plataformas que procesan, almacenan y analizan datos. Se entiende por datos personales cualquier información que permita identificar directa o indirectamente a una persona física. Esto incluye:

  • Nombre y apellidos.
  • Dirección física o electrónica.
  • Número de teléfono.
  • Documento de identidad (DNI, pasaporte, etc).
  • Fotografías o imágenes.
  • Ubicación en tiempo real.
  • Credenciales de acceso (usuarios y contraseñas).

La importancia de no compartir datos personales en las consultas radica en varios factores:

Riesgo de brechas de seguridad: Las empresas que ofrecen los servicios de IA pueden sufrir vulnerabilidades que provoquen filtraciones de información. Uno de los ejemplos más conocidos fue el incidente de OpenAI ocurridos en los años 2024 y 2025, el cual, afectó temporalmente a ChatGPT y permitió que se pudiera visualizar historiales de conversaciones y ciertos datos asociados a las cuentas de sus usuarios en Internet.

Se revelan conversaciones privadas filtradas y cuentas expuestas
Artículo de El Español

Almacenamiento y procesamiento de datos: Aunque muchas plataformas aplican políticas orientadas a la privacidad, parte de la información introducida o publicada por el usuario puede almacenarse para mejorar el servicio, entrenar modelos o analizar patrones de uso. Por ello, cualquier dato sensible que se comparta deja de estar completamente bajo el control del usuario.

Un ejemplo relacionado con este punto, fue la actualización de las políticas anunciadas por Instagram en el año 2025. Con este cambio, Meta empezó a utilizar las publicaciones de sus usuarios para el entrenamiento y desarrollo de su propia inteligencia artificial. Este tipo de decisiones evidencia la importancia de revisar periódicamente las condiciones de uso y las configuraciones de privacidad de las plataformas que usamos.

Sobre este tema, publiqué la siguiente entrada: https://bitacoralibreblog.blogspot.com/2025/06/aprendizaje-automatico-entrenamiento-ia.html

2- Evita subir información delicada o sensible: Aunque una plataforma de IA no solicite explícitamente datos personales, el usuario puede proporcionarlos involuntariamente dentro de consultas o ejemplos. Esto incluye detalles médicos, financieros o información relacionada con la geolocalización o la presencia en determinados lugares.

Para minimizar riesgos se recomienda:

  • Evitar introducir datos reales en ejemplos o consultas.
  • Utilizar información ficticia cuando sea necesario ilustrar un caso.
  • No compartir documentos oficiales ni capturas con datos visibles.
  • Omitir referencias que permitan deducir la identidad, la ubicación o el entorno laboral.
  • Revisar cuidadosamente el contenido antes de enviarlo.

3- Respeta la privacidad de terceros: Cuando describas un hecho que involucre a terceros, debes aplicar el principio de la minimización de datos: elimina cualquier información que permita identificar directa o indirectamente a las personas implicadas.

En algunos casos, la exposición de datos facilita la suplantación de identidad. La suplantación de identidad consiste en hacerse pasar por otra persona para obtener un beneficio. Además, una vez que se realiza la suplantación, se pueden crear perfiles falsos en redes sociales a través de la IA, elaborar audios o videos falsos mediante deep fakes o una comunicación a través de correos electrónicos y mensajes fraudulentos. Con esto, se consigue recrear una representación artificial que aparenta ser la auténtica.

Las consecuencias podrían derivar en:

  • Daño reputacional.
  • Extorsión.
  • Ciberacoso.
  • Fraude económico.

4- No incluyas información profesional: Aunque el uso de herramientas de inteligencia artificial en el entorno laboral puede aportar eficiencia y automatización, podría haber ciertos riesgos significativos en materia de seguridad de la información y cumplimiento normativo. Si utilizas IA en tu trabajo, es imprescindible seguir estrictamente las políticas internas de información y seguridad de tu organización. Estas políticas están diseñadas para proteger:

  • Información confidencial corporativa: Compuesto por documentación estratégica, ya sean contratos, informes financieros, planes de negocio o cualquier información clasificada como sensible.
  • Datos personales del personal y de los clientes: Compuesto nombres, identificaciones, direcciones, historiales profesionales o datos de contacto.

Entre las buenas prácticas recomendadas:

  • No introducir información identificable ni documentos internos completos.
  • Anonimizar y descontextualizar los datos antes de utilizarlos.
  • Verificar si la organización dispone de versiones corporativas aprobadas de herramientas de IA.
  • Consultar al departamento de cumplimiento normativo ante cualquier duda.

5- Revisa las condiciones del servicio de IA antes de usarlo: Antes de utilizar cualquier herramienta de inteligencia artificial es recomendable leer sus términos y condiciones, así como su política de privacidad. La IA no solo procesa el texto que introduces en el prompt, también puede tratar información técnica asociada a tu sesión y a tu dispositivo.

¿Qué información puede recopilarse además del prompt?

  • Cookies y datos de sesión.
  • Dirección IP.
  • Datos de uso y seguimiento.
  • Metadatos (fecha, hora, navegador, sistema operativo).
  • Información del dispositivo (modelo, identificadores únicos).
  • Datos de localización aproximada.
  • Permisos concedidos (contactos, micrófono, archivos).

Algunos proveedores pueden vender o compartir dichos datos con terceros para fines de marketing o análisis.

Un ejemplo de este punto, es cuando se hace uso de la inteligencia artificial de Google, llamada Gemini. Al utilizar esta IA, Google recopila las conversaciones, comentarios, ubicación general e información de uso. Además, Google utiliza revisores humanos para analizar algunas interacciones y mejorar su modelo de inteligencia artificial.

Datos que recoge Google Gemini
Conversaciones revisores humanos Google Gemini
Información del Centro de Privacidad de Gemini

Una recomendación sería desactivar la función de Guardar Actividad de Gemini desde la configuración, aunque al desactivar esta opción, los chats y las respuestas no se guardarán en el historial de Gemini.

6- Si necesitas apoyo emocional o psicológico, acude siempre a un profesional cualificado antes que a la inteligencia artificial: La inteligencia artificial debe entenderse como una herramienta complementaria para obtener información general o en ciertas tareas, pero nunca como sustituto de un asesoramiento profesional cualificado. En situaciones personales que sean delicadas (como crisis emocionales, problemas de salud mental, conflictos familiares complejos o decisiones médicas importantes) es fundamental recurrir a profesionales acreditados, ya sean psicólogos, psiquiatras, médicos, trabajadores sociales o asesores especializados según el caso.

La inteligencia artificial puede generar respuestas que aparentan comprensión porque procesa grandes volúmenes de datos. Sin embargo, esa “comprensión” es únicamente estadística.

7- Asesora y guía a los menores: Es fundamental que los padres eduquen a sus hijos y les expliquen de manera clara y adaptada a su edad qué es una herramienta de inteligencia artificial (y no solo de la IA sino de la tecnología en general). Por ello, es importante enseñar alfabetización digital.

Entre los beneficios se podría mencionar el uso de la IA en el apoyo de las tareas escolares, la ampliación de conocimientos, la generación de ideas creativas o la resolución de dudas rápidas. Como riesgos, deben comprender que no toda la información generada es necesariamente correcta o adecuada y que no sustituyen el criterio humano ni la orientación de docentes o familiares.

Como recomendación final, podría mencionar el uso de Lumo (el asistente de inteligencia artificial de Proton). A diferencia de otros asistentes de IA, Lumo es completamente de código abierto, de modo que cualquiera puede verificar que es privado y seguro. Al igual que el resto de servicios de Proton, Lumo apuesta por la privacidad ya que todas las conversaciones están cifradas de extremo a extremo, no guardan registros de los chats ni comparten información con terceras empresas.

Lumo, inteligencia artificial de Proton

Para más información sobre Lumo: https://lumo.proton.me/es-es/about

 

Y hasta aquí el final de esta entrada.

 

Bibliografía:

https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/aepd-publica-decalogo-recomendaciones-proteger-privacidad-al-usar-ia

https://www.elespanol.com/omicrono/tecnologia/20240131/escandalo-chatgpt-revelan-conversaciones-privadas-filtradas-cuentas-expuestas/829167229_0.html

https://www.eleconomista.es/tecnologia/noticias/13494818/08/25/que-has-hablado-con-chatgpt-100000-conversaciones-estan-ahora-publicas-en-google-de-secretos-de-empresa-a-dramas-de-amores.html

https://www.elconfidencial.com/tecnologia/2025-08-19/conversaciones-chatgpt-fuga-datos-privacidad-1hms_4191573/

https://lumo.proton.me/es-es/about

Publicar un comentario

0 Comentarios