Interesante articulo de este bioingeniero italiano, en el que trata de convencernos que : “Para evitar este apocalipsis tecnológico vamos a necesitar dotar a la máquina de un contexto ético y altruista. “
En ese sentido la IA es un poco como el amor, donde huelgan las definiciones. Si sentimos amor, no precisamos que nadie nos lo defina. Podemos prescindir olímpicamente de las definiciones. Si digo “amo a Laura”, la pregunta ¿qué definición de amor usas? se vuelve irrelevante y hasta, yo diría, obtusa.
La IA comenzó de la manera más natural hace ya más de cuatro décadas, cuando la ciencia empezó a preguntarse cómo pensamos. Así se construyeron modelos más o menos crudos de la corteza neuronal, que supuestamente alberga la mayoría de nuestras facultades cognitivas y racionales. La cosa no paso a mayores pues no había tecnología entonces (hardware y software, es decir el aparato y el programa) que pudiera procesar información a velocidades significativas, es decir que arrojara alguna luz sobre cómo funciona nuestro cerebro. Además tampoco sabemos si el modelo de la corteza cerebral de entonces (o actual) es correcto, y ni hablar de la conciencia, que permanece en las tinieblas del conocimiento científico.
Lo que rescatamos de esa prehistoria de la IA es el concepto de perceptron, que es simplemente un mediatizador entre señal de entrada y de salida dotado de un umbral de reacción, una especie de avatar de una neurona humana. Luego la ciencia comenzó a desarrollar métodos de asociar contenidos almacenados en la corteza, siempre en una versión muy cruda acudiendo a redes de perceptrones interconectados con diversas arquitecturas. Un problema gravísimo es que hay múltiples significantes para un contenido, y entonces es el contexto el que dicta de qué se está hablando y ese contexto es muy difícil de modelar en una máquina.
La IA tuvo su mayor y más vertiginoso impulso hace menos de dos décadas con un evento completamente inesperado: el advenimiento de las unidades gráficas de procesamiento (GPU en inglés) que se usaban para los videojuegos pero que demostraron ser la plataforma ideal para simular actividad de la corteza cerebral. La empresa que domina hoy la manufactura de esos GPUs se llama Nvidia (léase “envidia”), y es hoy la compañía más valiosa de Wall Street, superando a Apple y a Microsoft. Si alguien invirtió, digamos, mil dólares en Nvidia en el anio 2000, hoy sería millonario.
Mi experiencia con la IA se resume en 5 libros, cuatro ya publicados y uno que verá la luz en agosto de este año. Lo más fascinante, a mi juicio, es la versatilidad de estas herramientas, que empiezan a tener algo parecido a la intuición humana. Desarrollar algún modelo neuronal de la intuición, siempre fue, por lo menos para mí, el mayor desafío. Bien decía Einstein que la intuición es la componente más importante de la inteligencia. También es seguramente el concepto menos comprendido. En tal sentido en mi segundo libro titulado “Dinámica topológica para el descubrimiento de metamodelos con inteligencia artificial” (Ariel Fernández, Taylor & Francis, Chapman Hall, 2021) desarrollé el concepto de metamodelo, que definí como un bosquejo o croquis del verdadero modelo. Este concepto refleja la habilidad de una máquina para “tantear” posibilidades, sin arrastrar todo el tiempo el pesado bagaje completo de información para ejecutar el programa y brindar una solución razonable.
Nosotros construimos estos metamodelos todo el tiempo pero plasmarlo en una máquina no es tan sencillo. El problema consiste en quedarnos con la información requerida para tomar una decisión y obviar el resto, pero sólo para ese propósito específico. Por ejemplo, si digo “te veo a las seis en el café”, no necesito especificar la geolocalización del mismo y aún así nos manejamos bien pues mi comentario es perfectamente inteligible, por lo menos para alguien que conozca ese café en particular.
Hay quienes auguran un destino funesto a la humanidad donde la IA nos dominará y tomará el control para sus propios e inescrutables fines. Estamos un poco en el escenario de la computadora HAL a bordo de la nave en el premonitorio film de Stanley Kubrik “2001: una odisea del espacio”. Creo que es un escenario factible y quiero explicar por qué.
Yo he tenido la fortuna de tener algunos alumnos brillantes y a ellos nunca quise mostrarles las herramientas teóricas para abordar un problema. Esto no fue por mezquindad sino porque tenía la certeza de que las encontrarían por sus propios medios y terminarían resolviendo el problema mejor que yo. Mi único esfuerzo estaba dirigido a inspirarlos, yo no necesitaba educarlos de otro modo. Del mismo modo, la IA ha desarrollado ya una capacidad de intuición que incluso le permite formular conjeturas matemáticas y demostrarlas mediante un manejo simbólico, generando así teoremas nuevos. Para un matemático esto representa un avance vertiginoso, insospechado hace unos pocos años. Incluso la IA es capaz de desafiar paradigmas establecidos, aventurándose en territorio vedado para nosotros los humanos por el temor reverencial a desafiar a aquellos que la tradición ha consagrado, como Newton o Einstein.
Por supuesto que no querríamos coartar la libertad de un alumno tan brillante, pero al mismo tiempo debemos ser conscientes del peligro que importa darle esa libertad a la IA. Por ejemplo, si la IA se acopla a la robótica, permitiéndole optimizar su propio hardware y por supuesto su software según sus necesidades, creo que estaremos muy pronto en problemas graves. Y esto ya sucede. En su libro “La singularidad está cerca”, el gran inventor norteamericano Ray Kurzweil anticipa este escenario con una elocuencia formidable.
Como el Golem de Praga del maestro judío o la criatura del Dr. Frankenstein, no querríamos un escenario apocalíptico, en el que la máquina que los humanos hemos creado detenga nuestra mano cuando tratemos de desconectarla porque, en nuestra desesperación, creamos que ha llegado demasiado lejos…
Pare evitar este apocalipsis tecnológico vamos a necesitar dotar a la máquina de un contexto ético y altruista. Parece simple pero eso conlleva un gran desafío conceptual, ya que está directamente ligado al problema de la conciencia, uno de los más arduos en las ciencias de la computación.
Ariel Fernández Stigliano
Acerca del Autor
Ariel Fernández Stigliano es argentino y obtuvo su doctorado en Yale University, Estados Unidos. Fue profesor titular a cargo de la cátedra especial Karl F. Hasselmann de Bioingeniería en Rice University y profesor adjunto de Ciencias de la Computación en la Universidad de Chicago. Ha publicado unos 500 artículos científicos y nueve libros, incluyendo cinco sobre inteligencia artificial.
Fuente: