febrero 24, 2023
La IA es entendida como aquella que se lleva a cabo a través de una serie de sistemas, algoritmos y procesos determinados con la pretensión de emular la inteligencia humana a la hora de desarrollar tareas y habilidades propias del ser humano.
Recogiendo este concepto del S.XXI y volviendo atrás en el tiempo, vemos de donde proviene este interés por entender las formas del pensamiento humano, para el cual, como muchas de otras áreas, el sujeto siempre ha tenido que recurrir a algún tipo de ciencia para llegar a un entendimiento mínimo de algo abstracto.
En este caso nos situamos en 1854, año en el que George Boole (matemático) argumenta por primera vez en la historia que el razonamiento lógico podría sistematizarse de la misma manera que se resuelve un sistema de ecuaciones, tomando como valores V/F o SI/NO. Estos valores bivalentes y opuestos podían ser representados por números binarios de un dígito (bits). Para la época, el desarrollo de su trabajo no encontró ninguna aplicación práctica; fueron setenta años después de su muerte, en 1938, cuando el ingeniero electrónico y matemático estadounidense Claude E. Shannon (1916 – 2001) encontró en el trabajo de Boole una base para los mecanismos y procesos en el mundo real.
En 1936 surge el concepto de algoritmo de Alan Turing considerado padre de la computación moderna, ese año publica su artículo sobre los números computables en el que introduce el concepto de algoritmo y sienta las bases de la informática, a través de lo que hoy conocemos como “La Máquina de Turing”.
Sin embargo, la primera máquina considerada como una computadora programable y completamente automática fue Z3 creada por Konrad Zuse en 1941. Este ingeniero y pionero de la computación se anticipó de este modo a la arquitectura de Von Neumann, la cual a posteriori se convertiría en el diseño arquitectónico de las computadoras, en un informe borrador generado para la construcción del primer computador digital electrónico ENIAC.
Los avances de Alan Turing continuaron raspando lo que serían los primeros conceptos para el desarrollo de la inteligencia artificial. Turing en su ensayo “Computing Machinery and Intelligence” de 1950, propuso un criterio según el cual puede juzgarse la inteligencia de una máquina si sus respuestas en la prueba son indistinguibles de las de un ser humano, este estudio es conocido como el Test de Turing.
Y en 1956 nace el término Inteligencia Artificial acuñado por el informático John McCarthy en la Conferencia de Dartmouth y definiéndose como la ciencia e ingeniería de hacer máquinas inteligentes. Mientras estudiaba matemáticas en el Caltech él ya tenía en mente su gran obsesión: la inteligencia de las máquinas. Como digno sucesor de Alan Turing, aportó evidencias para su desarrollo durante más de medio siglo.
“Él creía en que la inteligencia artificial consistía en crear una máquina que realmente pudiera replicar la inteligencia humana “, declaró la investigadora Daphne Koller, del laboratorio de Inteligencia Artificial de la Universidad de Stanford (California), donde McCarthy trabajó casi 40 años.
Por eso, el investigador rechazó la mayor parte de las aplicaciones de inteligencia artificial desarrolladas en la actualidad, que están dirigidas, únicamente, a que las máquinas imiten comportamientos, pero no a que aprendan. Casi al final de su etapa investigadora, en 1978, McCarthy tuvo que darse por vencido en su idea purista de inteligencia artificial: “Para crear una una verdadera IA se necesitaría el trabajo de 1,7 Einsteins, 2 Maxwells, 5 Faradays y la financiación de 0,3 Proyectos Manhattan”, reconoció resignado.
Entonces podemos considerar que lo que tenemos hasta el momento no es una verdadera Inteligencia Artificial, ya que tan sólo imitan los comportamientos humanos, pero no les permiten generar sus propias conexiones neurálgicas para el desarrollo personal de la máquina.
Fue en 1957, año en el que se diseña la primera red neuronal artificial por Frank Rosenblatt, un psicólogo estadounidense notable en el campo de inteligencia artificial. Dirigió trabajos sobre perceptrones, culminando en el desarrollo y construcción del hardware del perceptron Mark I en 1960. Este era esencialmente el primer ordenador que podría aprender habilidades nuevas a prueba y error, utilizando un tipo de red neuronal que simula el proceso de pensamiento humano.
Desde aquí faltaba que la máquina pudiera comunicarse con el ser humano sin necesidad de siempre generar texto, buscando comenzar la comunicación entre humano máquina de forma natural: ELIZA da voz a las computadoras en 1966.
Desarrollada en la cuna del MIT por Joseph Weizenbaum, ELIZA fue el primer chatbot del mundo. Fue el primer programa en incorporar el procesamiento del lenguaje natural humano cuyo objetivo es enseñar a las computadoras a comunicarse con nosotros en nuestro lenguaje, en lugar de requerir una programación en código.
ELIZA funcionaba como muchos de los chatbots actuales: buscando palabras claves en la frase escrita por el usuario y respondiendo con una frase modelo registrada en su base de datos. A veces, las respuestas de este bot conversacional resultaban tan convincentes que, al conversar por primera vez con él, algunas personas creyeron que en verdad estaban dialogando con un interlocutor humano. Otras veces, en los momentos que escribían una determinada frase que ELIZA no conocía, ella misma reformulaba dicha expresión a modo de pregunta o reflexión.
Profundizando en las Redes Neuronales Artificiales, necesarias para el desarrollo del pensamiento computacional, en 1969, Marvin Misnky el cofundador del MIT escribe “Perceptrones” el trabajo fundamental del análisis de las redes neuronales artificiales. El perceptrón es una especie de neurona artificial que intenta funcionar como una neurona del cerebro humano o, al menos, la imita. La esencia de los perceptrones es una serie de pruebas matemáticas que reconocen algunas de las fortalezas de los perceptrones y, al mismo tiempo, muestran limitaciones importantes.
El tema principal del libro es el perceptrón, un tipo de red neuronal artificial desarrollada a finales de la década de 1950 y principios de la de 1960. El libro estaba dedicado al psicólogo Frank Rosenblatt. Este libro es el centro de una controversia de larga data en el estudio de la inteligencia artificial. Se afirma que las predicciones pesimistas realizadas por los autores fueron responsables de un cambio en la dirección de la investigación en IA, concentrando los esfuerzos en los llamados sistemas “simbólicos”, una línea de investigación que se agotó y contribuyó al llamado invierno de la IA. de la década de 1980, cuando la promesa de IA no se cumplió.
En la década de los 90 y principios de siglo XXI llegaría la expansión de la inteligencia artificial, originada por dos motivos: por un lado, se produjo un aumento de la capacidad computacional de los ordenadores, por otro lado, la digitalización produjo ingentes cantidades de datos que podían ser procesados para obtener valor de ellos. En 1997, la supercomputadora Deep Blue, creada por IBM, vence al campeón del mundo de ajedrez Gary Kasparov, consagrando a la Inteligencia Artificial.
Desde entonces, la IA dota a las máquinas como agentes sensibles que percibe su entorno y lleva a cabo acciones que maximicen sus posibilidades de éxito en algún objetivo o tarea. Esta inteligencia artificial se puede trabajar desde los sensores, el procesador o el accionador. Los sensores captan estímulos del entorno, como la luz, la temperatura o el movimiento. Pueden estar integrados en el dispositivo o conectados a ellos.
La inteligencia artificial ha supuesto una auténtica revolución en el mundo de la robótica, hasta tal punto que los sistemas robóticos actuales son, en su gran mayoría, un subdominio de la inteligencia artificial.
Como ejemplos tenemos a Atlas, que es un robot humanoide bípedo desarrollado principalmente por la compañía norteamericana de robótica Boston Dynamics y que está diseñado para una variedad de tareas de búsqueda y rescate, y se dio a conocer al público el 11 de julio de 2013. Otro ejemplo es el coche autónomo Shelley, que los científicos de la Universidad de Stanford crearon con el fin de buscar los límites de la conducción autopilotada. O los coches que está desarrollando en la actualidad la empresa Tesla Motors.
Pero la IA se está utilizando en el avance de múltiples campos de actuación. En robótica: ayuda a los sistemas de control que permiten que las máquinas administren tareas físicas como el movimiento mientras se ajustan a los cambios en el entorno. Con el trabajo de procesamiento del Lenguaje Natural: Algunas aplicaciones incluyen la recuperación de información, la minería de textos, la respuesta a preguntas y la traducción automática. También en la Visión por Computador: se puede usar para el reconocimiento de objetos, la detección de sucesos, la reconstrucción de una escena (mapping) y la restauración de imágenes.
Tenemos ya los Asistentes Virtuales como Siri, Alexa o Cortana. Utilizamos la IA en Finanzas, Salud (para el escaneado de imágenes, análisis sonoros del corazón), dentro del sector servicios en RRHH y contratación, búsqueda de empleo, márquetin, también en la media y el comercio electrónico, además del transporte y la industria.
Los expertos señalan que en el futuro veremos como la IA unida a las máquinas del presente proporcionarán resultados espectaculares con la emergencia de nuevos materiales que modificarán actuadores y sensores, así como un procesado de la información más cercana a estos elementos en forma de sistemas ciberfísicos. Con todo ello se incrementará la interacción cognitiva de las máquinas con las personas, lo que permitirá el uso de elementos de interacción entre ambos más sofisticados y transparentes para las personas.