Me había propuesto no escribir acerca de esta nueva aplicación de modelo predictivo de lenguaje generativo o sea un generador de textos mediante el uso de inteligencia artificial como es ChatGPT, pero el hecho de que en menos de dos meses hubiese alcanzado 100 millones de usuarios (incluyéndome) rompiendo así todos los records de otras plataformas, hizo que cambiara de opinión.
Solamente para establecer una comparación y complementar lo anterior, Tik Tok alcanzó los 100 millones de usuarios en 9 meses, Google 14 meses e Instagram, 26 meses. Todo dicho.
También quisiera aclarar que este artículo no fue escrito por ChatGPT, pero sabemos que podría haberlo sido. Una aclaración que deberemos hacer de aquí en más, así como ya nos hemos habituado a aclarar que no somos robots en cientos de plataformas y aplicaciones.
Lo cierto es que esta nueva aplicación de inteligencia artificial conlleva un nuevo debate. Recordemos que la innovación tecnológica conocida como IA data de 1950 y que podemos conceptualizarla como la ciencia y la ingeniería de la fabricación de máquinas inteligentes -especialmente programas informáticos inteligentes- y relacionada con la tarea similar de usar computadoras para entender la inteligencia humana. Pero su desarrollo exponencial en los últimos años ha sido tal que ha transformado nuestra vida diaria. Hoy convivimos con la inteligencia artificial (IA) y nos hemos convertidos en educadores de algoritmos gracias a una de las herramientas más avanzadas que es el machine learning o sea la capacidad de los sistemas de aprender.
La IA ha incorporado además de todos los avances tecnológicos, la teoría de la probabilidad (gestión de la incertidumbre), cálculo matemático (predicciones), lógica, lingüística, teoría de la utilidad (definición de objetivos), aprendizaje estadístico (adaptación a circunstancias nuevas) y valor del precedente. Hoy, gracias a esa convergencia científica y tecnológica, estamos rodeados de aplicaciones tales como asistentes como Alexia o Siri, chat box, reconocimiento facial, biométrico de voz y lingüístico, Internet de las cosas y del comportamiento, motores de recomendación, análisis de datos, robótica y ahora, sistemas de procesamiento de lenguaje natural que nos proporcionan textos e imágenes de altísima calidad.
Entonces surge la pregunta. ¿Hasta dónde estamos preparados los seres humanos para convivir con estos avances?
Una carta emitida por el Instituto Future of Life de Cambridge, Massachussets y firmada por dueños y líderes de corporaciones tecnológicas como Elon Musk (Twitter) Steve Wozniak (cofundador de Apple) Jaan Tallinn ( Skype) y otros referentes como Yuval Harari advierte sobre la necesidad de suspender seis meses el vertiginoso entrenamiento de los sistemas de IA con el propósito de efectuar una revisión que garantice el cumplimento de estándares de seguridad dado los riesgos que supone para la humanidad..
Por otra parte, el nivel de desarrollo de la IA requiere de regulaciones consensuadas entre los diferentes sectores para que el mismo sea sostenible e inclusivo. Así lo expresó la OCDE (ORGANIZACIÓN PARA LA COOPERACION Y EL DESARROLLO ECONOMICO) en el documento titulado RECOMENDACIONES SOBRE LA INTELIGENCIA ARITFICIAL de 2019 ¨…La Inteligencia Artificial debe estar encaminada al impulso del crecimiento inclusivo, el desarrollo sostenible y el bienestar de las personas y del planeta espetando el Estado de Derecho, los derechos humanos, los valores democráticos y deben prever mecanismos que permitan garantizar una sociedad justa y equitativa.
Dado este contexto de innovación, un uso masivo de una herramienta de inteligencia artificial como es Chat GPT y una clara advertencia de intelectuales, científicos y líderes tecnológicos, me sumo a este aluvión de artículos que han aparecido para poner el foco en los riesgos y oportunidades que supone.
A nivel educativo, se han alzado voces en todos los niveles acerca de los peligros que podría acarrear su uso en exámenes, trabajos prácticos, ensayos y otras producciones académicas. Por otra parte, podría provocar un menor desarrollo de nuestras habilidades intelectuales y creativas e incluso correríamos el riesgo de una dependencia intelectual. Será un nuevo desafío que enfrentaran los docentes para hacer un uso inteligente (en términos humanos) de la herramienta.
Con relación a la propiedad intelectual, supone un repensar estos derechos que promueven la creatividad y la labor del intelecto humano. Si un paper, un artículo, una ponencia o un libro son producidos por Chat GPT ¿podemos atribuirle los derechos de autor a un sistema? ¿podría presentarse por sí o por la empresa que lo creó a registrar ese texto o imagen en un registro o inscribirse en un congreso, foro, o remitirlo a una editorial para su publicación? De acuerdo al contexto legal vigente, hoy no sería posible, pero es preciso estar alertas y monitorear la evolución de estos sistemas.
Otra cuestión no menor es la responsabilidad por los textos e imágenes producidas en cuanto a los datos personales. La autoridad de datos personales de Italia prohibió el uso de ChatGPT por no respetar la legislación sobre datos personales y carecer de un sistema de verificación de la edad de los usuarios menores dando un plazo hasta el 30 de abril para que la empresa propietaria OpenAI cumpliera con los requisitos de transparencia, protección de menores, campaña de información y base jurídica en los términos y condiciones. A la fecha de redacción de este artículo, no se ha obtenido información al respecto.
Solamente se ha puesto foco en algunas cuestiones legales que suscita esta nueva aplicación de inteligencia artificial. Tenemos presente las relevantes oportunidades que presenta al igual que todos los sistemas inteligentes que utilizamos en nuestra vida personal y profesional. Como toda innovación disruptiva, no podemos dimensionar sus efectos en el corto plazo ni predecir su impacto pero sí debemos ser responsables de su uso aplicando nuestro sentido crítico, informarnos, conocer los términos y condiciones y potenciar sus beneficios para la comunidad toda. Ese será nuestro gran aporte humano a los sistemas inteligentes.