Nuestros sitios
Compartir

Rage against the machine: la revolución de la Inteligencia Artificial

Por: Revista Open 22 Ene 2021

Desde los bots para servicio al cliente hasta cirugías a cargo de robots, la Inteligencia Artificial es una realidad que fascina y atemoriza por igual, pero ¿qué tan probable es su sublevación?


Rage against the machine: la revolución de la Inteligencia Artificial

En la mitología griega, Atenea era una de las deidades más poderosas y alabadas del Olimpo, al ser diosa de la guerra, la civilización, sabiduría, estrategia en combate, de las ciencias, de la justicia y de la habilidad. Su nacimiento fue uno inusual pues emergió completamente armada de la frente de Zeus, después de que este se comiera a su madre pues, según las profecías, Metis alumbraría hijos más poderosos que él.

No es de extrañar que la antigua civilización haya inspirado al que es considerado el robot humano más avanzado del mundo: Sophia. En griego, su nombre representa a la sabiduría y, como tecnología, la inteligencia artificial que dio origen a Sophia ha causado un interés que es en partes iguales asombro y temor, tal como Atenea.

La historia del futuro

Este video te puede interesar

Si bien el tema de la inteligencia artificial suele llevar a escenarios del futuro o títulos de ciencia ficción como Los viajes de Gulliver de Jonathan Swift, la I.A. es ya parte de nuestras vidas y su pasado es uno que igualmente podemos encontrar en Grecia, cuando Aristóteles intentó describir el funcionamiento racional de la mente y con la creación de una máquina automática reguladora de agua por Ctesibio de Alejandría.

Aunque está lejos de lo que actualmente se entiende por inteligencia artificial, en ellos se encuentran los primeros pasos en la búsqueda de las máquinas pensantes. Desde entonces, científicos, filósofos, escritores y la población en general comenzó a buscar la fórmula del pensamiento humano en aras de poder replicarlo.

Pero no fue hasta la segunda mitad del siglo XX, tras la Segunda Guerra Mundial, cuando el tema comenzó a tomar forma. En 1955, John McCarthy acuñó el término para nombrar a la primera conferencia académica en torno al tema. En ella se presentó el Logic Theorist, un complejo sistema de manejo de información creado por Allen Newell, Herbert A. Simon y Cliff Shaw, considerado una de las primeras muestras de un programa exhibiendo comportamientos inteligentes, al imitar el comportamiento del ser humano para solucionar problemas matemáticos.

historia de inteligencia artificial

Previamente, los textos Como podríamos pensar, de Vannevar Bush y Maquinaria computacional e Inteligencia de Alan Turing ya proponían la noción de un sistema que pudiera asemejar e incluso impulsar el pensamiento humano. Ambos trabajos dieron paso a la conferencia de 1956, así como al razonamiento y automatización de las computadoras actuales, incluyendo sistemas de decisión y búsquedas inteligentes diseñadas para complementar y potencializar las habilidades humanas.

Ahora el término se ha convertido en parte de nuestras vidas, gracias al mayor volumen de información, algoritmos avanzados y mejoramientos en el almacenamiento y poder de los sistemas computacionales contemporáneos que se reflejan en asistentes personales como Siri, Alexa o el prototipo dosmilero de todos: DARPA. Sin embargo, sus aplicaciones no se quedan aquí.

 

 ¿Las máquinas nos quitarán el trabajo?

Mecánica del cerebro en la inteligencia artificial

Pese a la popularidad de la inteligencia artificial y su utilización cotidiana, lo que es y su funcionamiento aún no es ampliamente conocido, al punto que su definición misma no es una sola. Sin embargo, como lo describen los profesores Shukla Shubhendu y Jaiswal Vijay, este concepto generalmente se refiere a “máquinas que responden ante una estimulación consistente con respuestas tradicionalmente humanas, dadas las capacidades contemplativas, de juicio e intencionalidad”.

En otras palabras, se trata de softwares capaces de generar decisiones que requieren un nivel humano de conocimiento, además de anticipar problemas o resolverlos según se presenten. Como tal, operan siguiendo los principios de inteligencia, intencionalidad y adaptación, acorde a Shubhendu y Vijay.

El primero involucra la capacidad de aprendizaje y análisis de información de la máquina, que a su vez hacen uso del reconocimiento de patrones para encontrar posibles relaciones y futuros usos prácticos de la información. La intencionalidad, por su parte, designa a los algoritmos diseñados para tomar decisiones con base en lo anterior, distinguiéndose de aquellos que suelen pueden actuar de forma mecánica o predeterminada. Por último, la adaptabilidad refiere poder hacer uso de las dos habilidades previas ante problemas inesperados.

cómo funciona la inteligencia artificial

De tal forma, si por inteligencia humana entendemos la cualidad del cerebro para aprender, extraer conocimiento y procesar los conceptos abstractos del entorno, entonces la inteligencia artificial es aquella que tiene una máquina para imitar estas acciones con la información que recibe.

Esto ha sido posible gracias a las redes neuronales, una técnica utilizada en la I.A. modelada a partir del cerebro humano, capaz de aprender y mejorar con el tiempo. Lo que ha posibilitado el “aprendizaje profundo” bajo el cual las computadoras pueden enseñar y aprender de otras computadoras.

Un ejemplo de las primeras son precisamente los sistemas de reconocimiento de voz utilizados en los asistentes inteligentes o los traductores en tiempo real de diferentes programas; mientras que el segundo es utilizado en reconocimiento facial y mercadotecnia personalizada. No obstante, los usos actuales de estas tecnologías son mucho más diversos.

Infografía: La gran inversión de los gigantes tecnológicos en inteligencia artificial | Statista Infografía de Statista

Bienvenidos al mañana

Novelas, películas, series y prácticamente cualquier formato narrativo ha explorado las posibilidades de la inteligencia artificial, invitándonos a un sinfín de aventuras que en ocasiones son utópicas y otras más bien distopías que nos atemorizan por completo.

Sin embargo, la I.A. no es, como mencionamos, algo del futuro, sino un elemento constante en nuestro presente que se integra cada vez a más sectores como las finanzas, la seguridad nacional, la salud, la movilidad, el entretenimiento, la educación y más.

En el sector bancario, por ejemplo, la inteligencia artificial permite detectar con mayor velocidad, precisión y efectividad transacciones fraudulentas. En el ámbito comercial, por su parte, la I.A. ha desarrollado nuevas formas de personalización, recomendación y atención al cliente en general para ofrecer un mejor servicio que garantice el cierre de la compra, además de ayudar en el manejo de inventario. Por su parte, las ciudades inteligentes recurren a esta tecnología para la planeación urbana, la mejora del tráfico vial y la optimización de vida de los residentes.

aplicaciones inteligencia artificial

Lo que ha posibilitado esta permeabilidad y ubicuidad de la I.A. en este momento y no previamente son las mejoras en los sistemas de almacenamiento, la velocidad de procesamiento y las técnicas analíticas que han mejorado el sistema de toma de decisiones. Esto significa que lejos de ser la codificación lo que ha cambiado, la explicación de los avances en esta tecnología se encuentra en el hardware y en la forma en que nosotros mismos brindamos información a través del uso de servicios como las redes sociales o el comercio en línea.

Acorde a la Ley de Moore, la memoria y velocidad de las computadoras se duplica cada año. Así, en la última década finalmente alcanzamos la infraestructura necesaria para que la inteligencia artificial pueda desarrollarse a su máximo potencial, dando como resultado espectaculares titulares como la derrota del campeón mundial de Go, Ke Jie, por el sistema Alpha Go de Google o el nombramiento oficial de Sophia como embajadora de las Naciones Unidas.

Si bien la relación temporal de la Ley de Moore parece haberse ralentizado, acorde a diversos estudios, el incremento de información, por el contrario, cada vez es mayor, al igual que los descubrimientos en ciencias computacionales, ingeniería, matemáticas y neurociencias; con lo cual, el futuro de la inteligencia artificial sigue siendo uno lleno de posibilidades que incluyen la autonomía universal y la mejora de experiencias humanas en todo ámbito posible.

Pero, a su vez, esto ha despertado nuevos temores, inquietudes y cuestionamientos respecto al uso y creación de inteligencia artificial que van desde el uso de información personal, hasta la terrorífica posibilidad de un levantamiento masivo por parte de las máquinas.

 Neuralink: una “fitbit” para el cerebro y su salud, según Elon Musk

Inteligencia artificial: ni Atenea, ni Prometeo

En 1818, Mary Shelley escribió una de las historias más aterradoras de la época y quizá de la historia entera: Frankenstein o el moderno Prometeo. En ocasiones, algunas ediciones omiten la segunda parte del título, dejando exclusivamente el nombre del científico que buscó replicar la vida humana para que, al conseguirlo, abandonará aterrado su creación. Pero el resto del título es clave para entender el mensaje de su autora.

Acorde al mito griego, el titán Prometeo robó el fuego del Olimpo para dárselo a los humanos, lo cual conllevó al severo castigo de Zeus. De manera similar, la historia de Frankenstein surgió a partir de los avances científicos que se desarrollaron a inicios del siglo XIX, los cuales, según las anécdotas, impresionaron a Shelley de una forma poco positiva.

Lejos de pensar que se trata de una ocurrencia única, la renuencia a las nuevas tecnologías tiene un pasado que nos lleva a la escritura misma, cuando los filósofos griegos argumentaban traían consigo efectos negativos como la falta de memoria o “flojera del pensamiento”, como relata el académico Walter Ong en su libro Oralidad y escritura; y sigue tan presente como en ambos pasajes previos, como lo demuestran las posturas cautelosas de nombres como Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates y muchos más.

Ejemplo de ello es otro temor de la época de Shelley: la automatización. Esta designa a la implementación de sistemas o maquinarias autónomos o semiautónomos para acciones determinadas. Al igual que en el caso de la I.A., la automatización tiene una larga historia que nos remonta a los primeros sistemas de poleas, pero fue hasta la primera Revolución Industrial llevada a cabo a finales del siglo XIX y a principios del XX cuando esta comenzó a estar acompañada del miedo a ser reemplazados.

inteligencia artificial

No es de sorprender que con la llegada de algo que busca precisamente igualar al cerebro humano, este temor aparece nuevamente como una lúgubre advertencia sobre lo que puede significar en términos de empleo para la sociedad global; menos cuando tan solo hace un año, 2.7 millones de robots industriales ya operaban en fábricas de todo el mundo; esto es el equivalente a 113 robots por cada 10,000 empleados en el planeta, según datos del informe anual World Robotics 2020 Industrial Robots, presentado recientemente por la Federación Internacional de Robótica.

No obstante, la realidad es menos catastrófica. Acorde al Departamento de Estadísticas de Trabajo (BLS, por sus siglas en inglés), la inteligencia artificial creará millones de trabajos que aún no conocemos, compensando aquellos que sean suplantados por esta. Esto no solo se debe a que la I.A., pese a ser ya bastante compleja y avanzada, aún está lejos de ser aquella que pintan en la ficción, sino también en gran parte porque las habilidades sociales, psicológicas y emocionales son elementos que aún no ha logrado igualar la tecnología, acorde al experto Brian Cantwell Smith, quien es profesor de Inteligencia Artificial en la Universidad de Toronto.

Incluso la obra gótica de Shelley parece no ser tan definitiva en su juicio, pues el “monstruo” de Frankenstein no era tal al adquirir vida. Al descubrir la versión de la creación, se deja ver que fue el rechazo el que moldeó su violencia. Así y ante el panorama actual, un levantamiento de las inteligencias artificiales parece ser menor amenaza que el uso de estas por nosotros, los humanos; al igual que la mejora que puedan brindar no depende de ellas mismas, sino de lo que la humanidad decida hacer con ellas. No se trata, pues, ni de una Atenea, ni de un Prometeo, sino de una tecnología cuyo potencial está en nuestras manos y lejos de ser un mito o una historia de ciencia ficción, es una realidad en desarrollo.