Publicaciones

Inteligencia artificial y riesgos para la privacidad de la información.

La inteligencia artificial (“IA”), se ha convertido en uno de los avances tecnológicos más significativos de nuestra época, por su potencial para revolucionar la forma en que trabajamos, nos comunicamos y vivimos. El campo de la IA implica desarrollar máquinas y tecnología capaces de realizar tareas que típicamente requieren inteligencia humana, como aprender, intuir, resolver problemas y tomar decisiones. La IA ya ha demostrado su potencial en numerosas aplicaciones e industrias, sin embargo, con sus beneficios también surgen desafíos e inquietudes, como la privacidad de los datos, el sesgo o discriminación y la transparencia. En este artículo, se explorará el potencial de la IA y sus desafíos en cuanto a la privacidad de los datos y se proporcionarán recomendaciones sobre cómo llevar a cabo un uso adecuado, ético y eficiente de estas herramientas.

¿Qué es la inteligencia artificial?

La IA es una rama de la informática enfocada en el desarrollo de sistemas computacionales que se encarguen de realizar tareas que normalmente requerirían la intervención humana y el uso de su inteligencia para poder llevarse a cabo. Mientras más poderosa es la IA, más complejos problemas o tareas puede realizar ésta. El gran objetivo en la IA es crear sistemas tan potentes y complejos, que la IA pueda simular la inteligencia humana, pensando, intuyendo, aprendiendo y desarrollándose por sí misma, eliminando la necesidad de la intervención humana para así crear soluciones más eficientes.

La IA se basa en el uso de algoritmos y modelos matemáticos complejos para procesar grandes cantidades de información y extraer la más relevante entre miles o millones de datos. El funcionamiento de los algoritmos de la IA se basa en la recopilación y análisis de datos para encontrar ciertos patrones y tendencias (y de esta manera aprender y replicar). El algoritmo proporciona las instrucciones para el sistema y los datos que se analizan le permiten aprender y emplear esas instrucciones para perfeccionar su uso.

Estos algoritmos se dividen en dos grandes categorías: (1) Los que emplean la lógica para su funcionamiento conocidos como de aprendizaje automático (Machine Learning), y que están basados en los principios de razonamiento humano; y (2) los que combinan la lógica y la intuición conocidos como de aprendizaje profundo (Deep Learning), mismos que se diseñan asimilando los patrones del funcionamiento de las neuronas humanas, para que el sistema aprenda como lo haría una persona. A su vez estos dos grandes tipos de algoritmos se subdividen en distintos subtipos de acuerdo con su funcionamiento y análisis de información para generar aprendizaje.

En los últimos años el desarrollo de herramientas de IA basadas en aprendizaje profundo ha crecido exponencialmente, impulsando a su vez distintas formas de procesamientos de algoritmos como “lenguaje natural” o robótica. ChatGPT, que ha sido una de las herramientas de IA más sonadas en los últimos meses, opera con un algoritmo de aprendizaje profundo y procesamiento de lenguaje natural, siendo por ello por lo que puede analizar enormes bases de datos de información, generar una respuesta basada en aprendizaje e intuición, y aterrizarla en lenguaje natural para que sea comprensible para cualquier persona.

Así como ChatGPT, existen muchas herramientas de IA que se alimentan de grandes cantidades de bases de datos de información. Justo con relación a este punto es donde existe falta de suficiente regulación legal, cuando esa información se encuentra protegida ya sea por derechos de propiedad intelectual o de autor, o se trata de información personal o sensible de conformidad con las leyes correspondientes en distintas legislaciones.

Riesgos en privacidad y protección de datos personales.

El uso de herramientas de IA al recopilar, analizar y utilizar datos puede plantear riesgos para la privacidad y seguridad cuando se trata de datos personales; esto, en el uso cotidiano de herramientas por individuos en su vida personal o laboral. Entre otros, encontramos los siguientes:

  • Fuga de información: La fuga de información es uno de los principales riesgos en la privacidad y protección de datos personales en el uso de herramientas de IA. Esto se refiere a la posibilidad de que la información personal y confidencial que se comparte con la IA, ya sea de manera intencional o no, se filtre o se comparta a su vez con terceros sin el consentimiento del usuario original. Esta fuga de información puede ocurrir debido a varios factores, como errores en el software, vulnerabilidades de seguridad, malas prácticas de almacenamiento de datos o incluso acciones maliciosas de terceros (como el robo de información). Por ejemplo, si los datos personales y las conversaciones que se tienen con ChatGPT no se cifran correctamente, pueden ser interceptadas por atacantes y utilizadas con fines maliciosos, como el robo de identidad, el fraude o la extorsión. Además, también hay preocupaciones en torno a la privacidad de los datos recopilados por las herramientas de IA como ChatGPT. Estos datos pueden ser utilizados por empresas para crear perfiles de usuario detallados y personalizados, que se pueden vender a terceros con fines de publicidad o de marketing, sin el conocimiento o consentimiento del usuario. Esto da pie a su vez al siguiente riesgo.

  • Sesgo o discriminación: En el uso de herramientas de IA, el sesgo se refiere a cuando un algoritmo comienza o tiende a favorecer ciertos resultados o conclusiones debido a prejuicios originados en los datos de entrenamiento con los que se construyó el modelo o herramienta. Por ejemplo, si los datos utilizados para entrenar a un modelo de IA se basan en un conjunto de datos históricos, y esos datos reflejan un cierto sesgo o discriminación hacia ciertos grupos de personas, entonces el modelo también puede tener ese sesgo en su funcionamiento, por lo que se favorecerá a cierto grupo de conformidad con los patrones integrados en el algoritmo de la herramienta. Este sesgo puede ser peligroso en herramientas de IA utilizadas para la selección de personal, la evaluación del otorgamiento de un crédito, o la toma de decisiones legales, por ejemplo, ya que puede dar lugar a resultados injustos o discriminatorios. Por ejemplo, si un modelo de IA utilizado para la selección de personal favorece a ciertos grupos de personas sobre otros debido a supuestos sesgos en los datos, podría resultar en la discriminación contra grupos minoritarios.

Riesgos en privacidad y protección de datos corporativos.

De igual manera, así como existen riesgos para información personal de los individuos que utilizan modelos de IA, en el mundo laboral también existen diversos riesgos, similares a los antes explicados, pero que podrán generar consecuencias distintas.

Debido a las facilidades que representa el uso de herramientas de IA como ChatGPT en el incremento de eficiencia de análisis o resumen de información, cualquiera se puede ver tentado a ingresar información sin tomar en cuenta que se puede estar compartiendo información confidencial, ya sea de miembros de una empresa o de alguno de sus clientes o incluso del mismo usuario, causando un riesgo de fuga de información y exponerla a ataques cibernéticos dirigidos a la base de datos de la IA.

De conformidad con los términos y condiciones de uso, y las políticas de privacidad de ChatGPT, este modelo de IA, como modelo de lenguaje, no tiene la capacidad de guardar o almacenar información de los usuarios, y únicamente procesa y genera texto en respuesta a la entrada de texto que se recibe de los usuarios al ingresar una pregunta o información para que se procese con determinado objetivo. Sin embargo, para utilizar ChatGPT se debe ingresar a un buscador, o una aplicación que dé acceso a la misma, y es muy probable que cualquiera de estos buscadores o apps almacenen y guarden los datos ingresados.

Al preguntarle a la herramienta ChatGPT sobre cuáles son los riesgos al ingresar información confidencial o sensible su respuesta fue la siguiente:

Ingresar información confidencial en ChatGPT puede implicar ciertos riesgos en la privacidad y seguridad de los datos. Aunque ChatGPT no está diseñado para recopilar o almacenar información personal, existe la posibilidad de que la información ingresada sea capturada o almacenada involuntariamente por el sistema. Además, la información ingresada podría ser compartida o comprometida en caso de una brecha de seguridad en el servidor donde se aloja ChatGPT. Por lo tanto, es importante ser cuidadoso al ingresar información confidencial en cualquier sistema en línea y tomar medidas para proteger la privacidad y seguridad de los datos personales.

Por lo tanto, aunque en sus propias políticas de privacidad se menciona que este modelo no recopila ni almacena información de las entradas por parte de los usuarios, “involuntariamente” la misma herramienta podría violar su política de privacidad.

Adicionalmente, una investigación del Centro Nacional de Seguridad Cibernética del Reino Unido confirmó que los modelos de lenguaje extenso (como ChatGPT) actualmente no incorporan información automáticamente de las consultas por parte de los usuarios para que otros usuarios puedan acceder a ella. Es decir, si un usuario consulta sobre la zapatería más cercana en su domicilio (e ingresa su domicilio particular), otros usuarios no podrán solicitarle ese domicilio al modelo de lenguaje, ya que no está almacenado para consulta por parte de otros usuarios. Sin embargo, de acuerdo con el organismo, la consulta sí estará visible para la organización que proporciona el modelo de lenguaje (en el caso de ChatGPT, sería “OpenAI”), por lo que estas consultas, al ser almacenadas, sí podrían en un futuro ser utilizadas para generar y desarrollar una versión futura de un modelo de lenguaje.

Al preguntarle a la herramienta ChatGPT “¿Las consultas realizadas en ChatGPT pueden ser almacenadas por OpenAI?”, respondió lo siguiente:

Sí, como modelo de lenguaje, ChatGPT es propiedad y está operado por OpenAI, por lo que las consultas que realiza a través de mi pueden ser almacenadas por OpenAI. OpenAI utiliza esta información para mejorar y entrenar el modelo de lenguaje, así como para desarrollar nuevas aplicaciones de inteligencia artificial. Sin embargo, OpenAI tiene una política de privacidad sólida y está comprometido a proteger su privacidad. Por lo tanto, la información que proporciona a través de ChatGPT se trata como confidencial y se maneja de acuerdo con las leyes y regulaciones aplicables en materia de privacidad de datos. Además, OpenAI no comparte información de identificación personal con terceros sin su consentimiento, a menos que esté legalmente obligado a hacerlo.

De igual manera, al ingresar la pregunta “¿El buscador que me encuentro utilizando para hacer uso de ChatGPT, puede almacenar la información que ingreso?”, respondió lo siguiente:

Como modelo de lenguaje, ChatGPT es una entidad independiente y no tiene control sobre las políticas o prácticas de privacidad del buscador que está utilizando. Sin embargo, en general, los buscadores pueden recopilar y almacenar información como términos de búsqueda, direcciones IP, ubicación aproximada, entre otros datos. Es importante revisar la política de privacidad del buscador que está utilizando para comprender mejor cómo se maneja la información que proporciona. Además, si tiene inquietudes específicas sobre la privacidad, puede considerar utilizar herramientas de navegación privada o VPN para aumentar la privacidad de su información en línea.

Por todo lo anterior, el criterio sobre ingreso de información confidencial en ChatGPT o modelos de IA similares debería de ser restrictivo, y únicamente utilizarse como un apoyo para diversos usos en los que de ninguna manera se implicara el manejo de información protegida.

Similares respuestas podremos encontrar con distintas herramientas de IA. Cuando replicamos la pregunta sobre si las consultas realizadas en Bard de Google son almacenadas por Google, obtuvimos la respuesta siguiente:

Sí, las preguntas y la información introducidas en Bard son almacenadas por Google. Esto se debe a que Bard es un modelo de lenguaje que se entrena en un conjunto de datos de texto y código de forma masiva. El conjunto de datos incluye texto de libros, artículos, sitios web y código de proyectos de código abierto. Cuando se le formula una pregunta, Bard busca en su conjunto de datos la información más relevante y genera una respuesta. La información que Bard almacena se utiliza para mejorar su capacidad de responder a las preguntas y generar texto.

Sin embargo, Google no almacena sus datos personales. Cuando usted formula una pregunta a Bard, sus datos personales no se incluyen en la consulta. Esto significa que Google no puede rastrear su historial de búsqueda ni utilizar su información personal para ningún otro fin.

De esta forma, Bard no almacena la información sobre el perfil del usuario que realiza la consulta en la base de datos de Google, sin embargo, en caso de que en la misma consulta se ingrese algún dato personal o algún dato sensible, ya sea propio o de un tercero, quedará almacenado en la base de datos que alimenta a Bard para su futuro uso y desarrollo del modelo de lenguaje.

Regulación a nivel nacional e internacional.

A pesar de que ha habido grandes esfuerzos y la tendencia indica que se irán regulando cada vez más las diferentes ramas e implicaciones de la IA, lo cierto es que, por el momento, el marco existente aún es muy incipiente.

El intento actual de dichas iniciativas es pretender regular principalmente en materia de ética y responsabilidad, privacidad y protección de datos, transparencia, sesgos y discriminación, seguridad cibernética, responsabilidad legal y civil tanto para desarrolladores de IA, fabricantes, usuarios u otros participantes.

Dentro de las iniciativas y regulaciones más importantes se encuentra la Ley de Inteligencia Artificial de la Unión Europea, iniciativa presentada el 21 de abril de 2021, misma que se encuentra en proceso de aprobación por parte del Consejo de la Unión Europea (compuesto por 27 países miembros) y el Parlamento Europeo, para así volverse una ley vigente y operante para todos los Estados miembros de la Unión Europea. Esta está muy relacionada con el Reglamento General de Protección de Datos de la Unión Europea, mismo que, aunque no se centra exclusivamente en IA, pudiera extenderse a la misma, al establecer requisitos específicos para el tratamiento de datos personales en distintos sistemas computacionales o digitales.

Entre otras de las iniciativas importantes a nivel internacional se encuentran las Directrices Éticas para la IA de la Comisión Europea y la Iniciativa de Ética Global de la Inteligencia Artificial de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), mismas que se centran en el desarrollo de un marco de principios éticos para la IA, que, aunque no tienen carácter vinculatorio, funcionan para proporcionar directrices a los países miembros (respectivamente), con la finalidad de fomentar la adopción de políticas y prácticas éticas en el desarrollo y uso de la IA.

Algunos de los países punteros en el desarrollo de iniciativas para la regulación de la IA se encuentran Estados Unidos, los países miembros de la Unión Europea, China, Singapur, Canadá, Australia, entre otros.

Así pues, diversos países que al momento sólo cuentan con regulaciones específicas para la protección y el manejo de datos personales, pudieran, de forma preliminar, basarse en el derecho comparado de estas regulaciones para mitigar los riesgos existentes por el uso de herramientas de IA o plataformas como ChatGPT, Bard u otras.

Para el caso particular de México, siendo un país vanguardista respecto a las tendencias regulatorias internacionales, no se está quedando muy atrás en este tema. El pasado 27 de mayo de 2023, el diputado Ignacio Loyola Vera presentó una iniciativa para expedir la Ley de Regulación Ética de la Inteligencia Artificial y la Robótica.

El principal objetivo de esta ley es regular el uso de los avances tecnológicos en materia de IA para actividades gubernamentales, económicas y comerciales, con apego a la ética y el derecho. La Comisión de Ciencia, Tecnología e Innovación de la Cámara de Diputados estará encargada de revisar la iniciativa y establecer los lineamientos de políticas públicas para expedir dicha ley.

Cabe mencionar que, como parte de la iniciativa, se plantea crear el Consejo Mexicano de Ética para la Inteligencia Artificial y la Robótica, como un organismo público descentralizado, y Normas Oficiales Mexicanas en materia del correcto y ético uso de la IA y la Robótica.

Con todo lo anterior, se puede concluir que existe una preocupación o un interés a nivel internacional de regular y proponer esquemas legales que proporcionen un marco regulatorio proteccionista y preventivo en materia de IA, específicamente en su correcto y ético uso, ya que estas tecnologías no están exentas de su uso indebido. Hasta ahora las iniciativas y propuestas de ley no han sido tan técnicas o no se han enfocado en la limitación de la estructura o funcionamiento de las herramientas de IA, sino en el uso que se les dé, tanto por parte de los creadores de cada herramienta, como de los usuarios de estas. En general, la tendencia global frente a la IA es más de aceptación que de rechazo categórico, sin embargo, también la tendencia es crear normas y reglas claras para su uso y que de esta forma se proteja a los usuarios de dichas herramientas.

Contacto

Rafael Sánchez 

rsanchez@cuestacampos.com

Jorge González

jgonzalez@cuestacampos.com

LO ANTERIOR SE PROPORCIONA COMO INFORMACIÓN GENERAL PREPARADA POR PROFESIONALES CON RESPECTO AL TEMA REFERIDO. ESTE DOCUMENTO SÓLO SE REFIERE A LEYES APLICABLES EN MÉXICO. SI BIEN SE HA HECHO TODO EL ESFUERZO PARA PROPORCIONAR INFORMACIÓN CORRECTA, NO ASUMIMOS NINGÚN TIPO DE RESPONSABILIDAD POR ERRORES U OMISIONES. POR MEDIO DEL PRESENTE, NO SE ESTÁ RINDIENDO ASESORÍA LEGAL, CONTABLE O PROFESIONAL DE NINGÚN TIPO.