top of page

INTELIGENCIA ARTIFICIAL: ¿Promesa o amenaza?

  • Foto del escritor: Diego Montoya
    Diego Montoya
  • 14 feb 2023
  • 13 Min. de lectura

la irrupción del ChatGPT, así como de las plataformas de generación de imágenes, nos puso a reflexionar acerca de las profundas implicaciones de la tecnología. Si bien estos desarrollos nos harán la vida más sencilla, expertos coinciden en que pueden suponer, también, peligros considerables.



Por Diego Montoya Chica

Publicado en Revista Credencial, Marzo 2023


DEPENDIENDO del lente utilizado, la inteligencia artificial puede ser vista o bien como esa atávica manía humana de crear máquinas que emulan nuestro comportamiento —una pulsión que tiene milenios de antigüedad, pues se tiene registro de ‘autómatas’ prehistóricos—, o como los asombrosos avances de las ciencias computacionales contemporáneas, esas que echaron a andar mentes como la de Alan Turing en el contexto de la Segunda Guerra Mundial y que, hoy, nos hacen temer las distopías que solíamos imaginar en la ciencia ficción.

Es posible que no estemos ante un descubrimiento tecnológico con las implicaciones de la radiación nuclear, que suscitó las reflexiones de Svetlana Aleksiévich, nobel de Literatura, en su libro Voces de Chernóbil, no solo en torno a nuestra potencial aniquilación, sino también acerca de cómo concebimos el tiempo y el espacio. Quizá tampoco estemos ante una carrera geopolítica basada en tecnología como la que libraron la Unión Soviética y Estados Unidos por clavar su respectiva bandera en la superficie lunar. En fin: puede que no estemos ante la primera fundición de metales o la invención de la rueda.

Pero, ¿qué tal que sí? ¿Qué tal que, vistos los últimos gritos de la industria billonaria de la inteligencia artificial, la sociedad sí esté a punto de cambiar sus dinámicas gracias a —o por culpa de, si así lo quiere usted— los genios de nuestra era, quienes ya lograron meter un dispositivo electrónico en el bolsillo de casi todos los seres humanos del planeta?

REVISTA CREDENCIAL le pidió algunas definiciones básicas a Leonardo Flórez, director de la Maestría en Inteligencia Artificial de la Universidad Javeriana. Esta tecnología, dice, “son algoritmos, es decir, secuencias de instrucciones con las que un computador resuelve problemas, con las que la máquina emula el cerebro humano. O, por lo menos, lo que hace 80 años se creía que era el cerebro humano y que, en realidad, está neurológicamente revaluado”. Además, este tipo de desarrollo tecnológico —dice— tiene la capacidad de tomar decisiones. Llega a ellas tras procesar información proveniente, por ejemplo, de aquello que ‘percibe’, como si se tratara de los cinco sentidos humanos: en imágenes, movimientos, temperaturas y sonidos.

Para la muestra, el reconocimiento facial en los teléfonos, sea para desbloquearlos o para agrupar las fotografías de acuerdo a qué miembro de la familia esté en ellas. Desde que ChatGPT se lanzó al público en noviembre de 2022, se desataron apasionantes debates en torno a las implicaciones de esta herramienta. Y aquí vale la pena recordar lo descrito por Irene Vallejo en El infinito en un junco: cuando la escritura irrumpió en la Grecia de Sócrates, este la miró con recelo, pues consideraba —dice la ensayista española— que se sacrificarían competencias esenciales: “Sócrates temía que, por culpa de la escritura, los hombres abandonasen el esfuerzo de la propia reflexión. Sospechaba que, al auxilio de las letras, se confiaría el saber a los textos y, sin el empeño de comprenderlos a fondo, bastaría con tenerlos al alcance de la mano. Y así ya no sería sabiduría propia (...), sino un apéndice ajeno”.

¿Qué pensaría Sócrates de las herramientas contemporáneas?


LA NATURALEZA DEL CHATGPT


Microsoft invirtió recientemente 10.000 millones de dólares para que la compañía OpenAI afinara esta herramienta conversacional. Su mayor cualidad —y en esto coinciden los expertos consultados— es su desenvolvimiento en el frente lingüístico: se trata de un chat que interactúa con cualquier persona, sin la inmediata intervención de un ser humano, y lo hace mediante entradas y respuestas de texto, respuestas que resultan sorprendentemente bien escritas —y esto es importante— en su forma. Funciona con base en lo que se denomina un ‘modelo de lenguaje’, concepto definido a continuación por Rubén Manrique, ingeniero de sistemas del Centro de Investigación y Formación en Inteligencia Artificial de la Universidad de los Andes (CinfonIA): “Ese tipo de modelo predice la palabra siguiente. Si yo digo: ‘Al que madruga, Dios...’, para nosotros es fácil asumir lo que viene: ‘... le ayuda’. Pero para una máquina, ese proceso es complicado. Lo logra después de haberse entrenado con volúmenes de datos gigantescos, incluyendo información existente en la web”. No obstante, este chat no nos deja boquiabiertos por predecir la siguiente palabra, funcionalidad presente desde hace años en los motores de búsqueda de Google y YouTube, entre tantas otras plataformas. Más bien, nos asombra porque redacta textos enteros, dice Manrique, preservando “el contexto de la conversación y utilizándolo para construir respuestas que parecen sensatas desde el punto de vista humano”. Es decir: los algoritmos de esta herramienta, tras ser entrenados con un acervo de información coloso, aprenden —ojo: por sí mismos— a chatear, dando la impresión de tener agencia propia.


¿CUÁL ES, ENTONCES, SU GRAN UTILIDAD?


En principio, es un excelente asistente de escritura. “¿Tiene un texto y quiere reescribirlo en otras palabras, pero sin perder la idea? ChatGPT lo hace”, asegura el ingeniero Manrique, de CinfonIA. Y añade: “Lo escribe en otro idioma si usted se lo pide, y es capaz de expandir una idea específica. También se puede caracterizar el lenguaje para que lo haga en uno más formal, por ejemplo, o técnico o académico”, así como en el número de párrafos que se le indique.

Es obvio que esta herramienta no se quedará en las charlas curiosas del millón de personas que la utilizaron pocos días después de lanzarse al público y que, dos meses después, ya eran más de 100 millones. Por ejemplo, Manrique menciona potencialidades asociadas a la terapia psicológica, así como en la generación de compañía para personas muy solas, cosa posible, dice, “si estos modelos de lenguaje se unen con otros como Whisper, que generan voces a partir de texto y que lo hacen con acentos o tonalidades particulares”.

Para el experto, resulta lógico que los experimentos de charla oral sean aún cerrados y no dispuestos para público general, teniendo en cuenta los riesgos; sí le sorprende, sin embargo, que ChatGPT haya sido liberado por completo, incluso antes de que sus falencias sean completamente mitigadas —descritas más adelante—. “Antes ya había otros modelos de lenguaje conversacionales, pero fueron fuertemente castigados por la comunidad, por los mismos problemas que tiene este chat. Es el caso de Galactica, de Facebook, y LaMDA, de Google, compañías que arriesgan demasiado su valor en bolsa si les sale algo mal. En cambio, OpenAI parece haberse dado el lujo de salir con errores porque no pertenece, en realidad, a ningún gran nombre corporativo: solo ha recibido inversiones, esas sí mayúsculas, de quienes, como Microsoft, están interesados en tener derechos de uso”, complementa el ingeniero.


TRES GRANDES RIESGOS: ¡NO LE CREAN A CIEGAS!


Andrés Páez es filósofo y, como miembro del equipo de CinfonIA, aporta una pertinente mirada desde las ciencias sociales. Él no niega que ChatGPT tenga ventajas: “Repercute en productividad, por ejemplo. Imagine a un empleado al que, antes, se le daba un día para escribir un informe. Ahora le van a dar dos horas para que meta la instrucción a la herramienta y luego edite el resultado”. Pero, al mismo tiempo, hace hincapié en los peligros asociados al uso generalizado de esta herramienta, riesgos que podríamos dividir en tres grupos, según lo dicho por él y las otras fuentes en este artículo.

Primero, está el inherente a retirarle al ser humano la tarea de estructurar textos, una competencia que cimienta otros pilares del intelecto como la capacidad de argumentación e incluso del mero entendimiento: “A nivel de bachillerato y universidad, la gente no va a aprender a escribir. Si le encargan un ensayo al estudiante, lo primero que va a hacer es poner la pregunta en el chat y le saldrá un borrador que puede ir puliendo, corrigiendo sus fuentes y verificando sus datos. Desaparecerá el reto de enfrentarse a una página en blanco y pensar en cómo organizar las ideas, en qué párrafos desplegarlas”, explica Páez y vaticina algo que nos recuerda a lo dicho por Sócrates sobre la escritura: “Pasará como con la calculadora: hoy en día, si a alguien se le pide que sume 17 + 32, acudirá a ella porque ya no tiene la capacidad mental para hacer el cálculo rápidamente. Pero mire las generaciones anteriores: hacen operaciones larguísimas en papel porque tienen en su cabeza la estructura necesaria”.

En segundo lugar, el ChatGPT está programado para descrestarnos en sintaxis, pero no así para entregar datos correctos ni para ser lógico: de hecho, genera información que, a veces, resulta mentirosa. “Es un modelo probabilístico”, dice Manrique, y Páez toma el relevo para explicar lo anterior: “El chat concluye que lo más probable es que 2 + 2 sea 4, pero no usa siquiera la calculadora para hacer la operación”. Es decir: se basa en la información de texto con la que fue entrenado y que podría incluir aquello que la gente ha dicho en Internet, para nada confiable.

Lo anterior supone un riesgo mayúsculo relacionado con lo que Páez llama “sesgo de automatización” y que tiene lugar cuando la gente le cree más a una máquina porque asume que esta no tiene la capacidad de mentir —un ‘defecto’ que se asume humano— y que es objetiva. Pero, ¿imagina usted si alguien le confía una consulta médica al chat, y este construye la respuesta con base en lo más comentado en la web, mucho de lo cual no tiene un sustento verificado por profesionales? “Falla también en su componente lógico, en resolver problemas o acertijos, a menos que los haya visto anteriormente, resueltos y de manera correcta”, complementa Manrique. “Además, si la base de datos con la que opera es hasta un año específico y usted le pide información sobre hechos recientes, va a fallar: generará textos mentirosos”.

Y aquí llegamos a la tercera gran rama de riesgos: la de los famosos sesgos, sensibles en el plano de la ética. Dado que ChatGPT se entrena con información producida por el ser humano, nos refleja tal y como nos hemos comportado en la web, con lo mejor y lo peor de nuestras interacciones. “Todos hemos oído las historias de inteligencias artificiales que se vuelven racistas, machistas o misóginas porque les enseñaron con los datos equivocados. Esto ocurre si una herramienta se alimenta, por ejemplo, con los discursos presentes en Twitter”, dice Leonardo Flórez desde la Javeriana, con lo cual nos recuerda a Tay, el chatbot en esa red social, tristemente célebre —y cancelado— por reproducir discursos de odio al poco tiempo de haber sido lanzado.

Rubén Manrique complementa lo anterior desde CinfonIA: “Como sociedad ya venimos con sesgos, pero es que hay unos más dañinos que otros. Si percibes un error en el lenguaje matemático, eso es un problema menor. Pero si, por ejemplo, le pregunto al chat cuál carrera o perfil laboral es más adecuado para mí, y si soy hombre me manda a algo técnico, mientras que si soy mujer me aconseja campos también estereotipados, la tecnología estará perpetuando sesgos y afectando con ello a la sociedad”. EN LA PRENSA Y EL DEBATE PÚBLICO


“En diferentes países, la inteligencia artificial se está usando para difundir mentiras. Ese es un riesgo para la percepción de la ciudadanía en torno al periodismo y a la información”, asegura el director de la Fundación para la Libertad de Prensa (FLIP), Jonathan Bock. En parte, se refiere a los algoritmos que hacen posible la direccionalidad e individualización del contenido en redes sociales, ese fenómeno por el cual el usuario recibe cada vez más y más mensajes relacionados con conceptos en los que mostró algún interés en línea. Esta es un arma de doble filo: cuando las redes se mezclan con la dimensión política de los seres humanos —es decir, casi todo el tiempo—, las ‘cámaras de eco’ que dicha individualización genera tienden a radicalizarse: a más contenido consumido sobre un tipo de ideas, más mensajes relacionados recibirá el usuario. Gasolina para la polarización.

Pero Bock también se refiere al fenómeno al interior de las salas de redacción. Si el ChatGPT genera contenidos falsos con apariencia verosímil, y si a él se suman otras herramientas con inteligencia artificial para ese nicho profesional —como Gabriele, que distribuye sus notas a medios españoles como RTVE y El Periódico, o como Sophi, del periódico canadiense The Globe and Mail—, a los periodistas se les crece en importancia una de sus tradicionales tareas: “Conservar los principios básicos como contrastar fuentes, dar profundidad, aportar diferentes voces y miradas de actores involucrados en los temas”, añade Bock.

En su artículo Cómo la Inteligencia Artificial está cambiando los medios de comunicación, Miquel Pellicer, —periodista y director de comunicación digital de la Universitat Oberta de Catalunya—, se suma con este mensaje: dicha tecnología, dice, “será de gran apoyo para los medios de comunicación. Los límites y la confianza en lo publicado lo debemos identificar los periodistas, poniendo límites y trabajando códigos deontológicos claros y concretos para la profesión del siglo XXI”.


LA IA EN LOS NEGOCIOS

(Por Laura Catalina Uribe)


Erick Rincón Cárdenas, director del Tic Tank —un centro de pensamiento en la Universidad del Rosario—, hace eco de lo dicho por Andrés Páez, de CinfonIA, en el sentido de que esta innovación permite un aumento de “la productividad al interior de las empresas, y en ello se ve reflejado el costo-beneficio: el intercambio de bienes y servicios es más expedito, preciso y genera un vínculo predictivo con quienes los adquiere”.

Además, dice el experto, en un mundo ideal, la implementación de la tecnología permitirá que el capital humano se concentre en tareas diferentes a las mecánicas, rutinarias y operativas. “No se trata de desprender a las personas de todo contacto humano mientras interactúan con la compañía, sino de generar una experiencia personalizada y de anticipar las necesidades para suplirlas más e integralmente”, explica, en alusión a un potencial servicio al cliente afinado por estas herramientas. Estas, dicho sea de paso, prometen reducir los errores en la ejecución de ciertos procesos, además de agilizarlos.

“Pero aún hay aristas que representan debate y cuestionamientos en aspectos éticos, de regulación y reemplazo del capital humano”, dice Rincón. El último concepto que menciona tiene que ver con un temor común: si la inteligencia artificial modificará el mercado laboral. A juzgar por el ChatGPT, dice Andrés Páez, “los que están viendo amenazados sus empleos son no solo personas de una clase obrera que trabajaba haciendo procesos físicos y repetitivos en fábricas, sino también una clase media, con formación universitaria, que pensaba que estaba a salvo”. IMÁGENES HECHAS POR UNA MÁQUINA


“Así como al ChatGPT usted le puede pedir que escriba un poema en el estilo de Neruda, solo que acerca de Transmilenio, Dall-E le pinta lo que usted quiera”. Así describe el filósofo Andrés Páez la función de una de las plataformas online más populares para la creación de imágenes con inteligencia artificial: Dall-E —pronunciado como el pintor Dalí—, un software al que se suma otro llamado Midjourney, entre otros. El principio es el siguiente: recibido el texto descriptivo de una imagen, los algoritmos barren la web para encontrar aquellas ya existentes que concuerden con cada uno de los componentes de esa descripción. El programa las mezcla y remezcla hasta alcanzar una sola, lo más parecido que pueda a la idea imaginada.

Para Carmen Gil Vrolijk, docente del Departamento de Artes de Los Andes y curadora de Voltaje, Salón de Arte y Tecnología, estas herramientas no son más que una moda. “En algún momento se olvidará y creo que solamente la gente que tenga la capacidad de entender cómo manejar este tipo de tecnologías en la creación artística va a entender el fenómeno; el resto son modas pasajeras, imágenes que no tienen gran calidad y que plantean una pregunta delicada sobre la relación entre ser artista y ser alguien que utiliza una herramienta sin ningún sentido artístico”.

Para la docente, la perspectiva necesaria para el análisis de estos fenómenos necesita “distancia suficiente como para entenderlos, no como una novedad, sino como herramientas que requieren de crítica y de mucho tiempo de desarrollo”.

El elefante en la habitación, sin embargo, el más urgente, es otro. Dado que las plataformas usan imágenes preexistentes, “muchas de ellas tienen derechos de autor. La máquina las toma y las modifica, cuando muchas de esas modificaciones están prohibidas por la legislación”, dice Andrés Páez. El debate está sobre la mesa, por ahora llena de zonas grises: ¿A quién se le atribuyen los derechos de las imágenes creadas por una máquina? ¿Esta le reconocerá algún tipo de crédito, si quiera, a quienes elaboraron las pinturas y fotografías que el algoritmo usó como insumo?


SEGURIDAD Y DEFENSA: UNA CARRERA GEOPOLÍTICA


Para Óscar Palma, profesor asociado de la Universidad del Rosario y doctor de la London School of Economics, cuando se trata de invertir y usar inteligencia artificial para efectos de orden público, existe una diferencia entre los países democráticos y los regímenes autoritarios: a menos democracia, menores restricciones para identificar rostros, ubicar individuos y perfilarlos. “Dado que no es una democracia y entonces no genera protestas por transgresiones a los Derechos Humanos, China ha avanzado mucho”, explica Palma. “En algunas de sus ciudades tienen la capacidad, incluso, de identificar personas a través del iris, el tono de voz o la manera de caminar”.

No obstante, la real competencia geopolítica, dice, está en el plano de la defensa a escala de guerra. Por un lado, están las plataformas no piloteadas, “que pueden incluir los drones solos, pero también a los enjambres de drones, un sistema que se autoprograma sin necesidad de intervención humana: él mismo observa, analiza y toma decisiones, una de las cuales podría ser la de atacar”, comenta Palma. Y, por el otro, lo más grande: “Los sistemas autónomos de armas, que tienen la capacidad de procesar información de radares, sensores, cámaras (todo en el contexto de la guerra)”.

Dada la preponderancia de los sectores privados en la industria tecnológica, el nivel de democracia también determina las dinámicas del mercado. Tomemos los tres grandes jugadores en la carrera geopolítica de la inteligencia artificial para defensa: en Estados Unidos, el Gobierno le compra a los particulares como Boeing, Northrop Grumman y Lockheed Martin. Pero en Rusia y China, el sector privado está a la merced del Estado.


Algunos testimonios


"Existe un fenómeno adicional que preocupa a los especialistas en torno al ChatGPT: el de la caja negra (black box). Estos modelos son tan complejos que es difícil explicar por qué generan sus salidas específicas (sus respuestas). Es decir, su autonomía no viene con fácil trazabilidad en torno a cómo genera los textos".

Rubén Manrique

Ingeniero de sistemas, profesor de Los Andes y miembro de CinfonIA.


"Una de las implicaciones del ChatGPT es que la gente, a nivel de bachillerato y universidad, no va a aprender a escribir. Si le ponen un ensayo, lo primero que va a hacer es poner la pregunta en el chat y luego, corregir o pulir la respuesta".

Andrés Páez

Filósofo, profesor asociado de Los Andes y miembro de CinfonIA. "Apenas estamos raspando la superficie. La IA nos puede llegar a servir para diseñar política pública, como, por ejemplo, para identificar cómo Colombia se podría volver una potencia exportadora de un producto agrícola específico. El plano médico es otro frente con inmenso potencial, y en particular para lo que llamamos ‘dimensionalidad’ en ingeniería: en vez de tener 300 datos para tomar decisiones —historias clínicas, imágenes, retroalimentación de otros médicos, resultados de pruebas de laboratorio—, el especialista las tomará con base en 3 o 4 ya depuradas por esta tecnología".

Leonardo Flórez

Director de la Maestría en Inteligencia Artificial de la Universidad Javeriana.


Comments


bottom of page