Augusta Ada King, condesa de Lovelace, nació en Londres un 10 de diciembre de 1815. Más conocida como Ada Lovelace, está considerada como la inventora del primer algoritmo capaz de ser procesado por una computadora; o, por lo menos, un precedente de ella. Entre 1842 y 1843, Ada tradujo un artículo de un ingeniero militar italiano, Luigi Menabrea, sobre la llamada máquina analítica o máquina de Babbage, un prototipo de calculadora –no llegó a construirse– diseñado por el matemático británico Charles Babbage para que funcionara con un motor de vapor y tarjetas perforadas. Entre esos apuntes se encuentra el primer programa informático de todos los tiempos, creado para que aquel ingenio victoriano lo procesase.
Ada Lovelace, Turing y el nacimiento de una inteligencia artificial
¿Es este realmente el comienzo de la historia de la inteligencia artificial? Hay quienes piensan que sí, pero para la mayoría de científicos el precursor más importante de esta rama de la tecnología fue Alan Turing, el creador de la máquina electromecánica que descifró el código Enigma de los nazis durante la Segunda Guerra Mundial. Más tarde, en 1950, Turing publicó un artículo, titulado “Computing Machinery and Intelligence”, en el que se preguntaba si las máquinas pueden pensar. Para contestarlo, desarrolló el famoso test de Turing: si las respuestas a esta prueba nos hacen creer que estamos ante una persona, concluiremos que sí.
Visionarios de la inteligencia artificial
De cualquier forma, el término ‘inteligencia artificial’ no se acuñó hasta 1956 en el Dartmouth College (EE. UU.), durante una conferencia organizada por el matemático John McCarthy (1927-2011) a la que asistieron algunos de los padres reconocidos de esta tecnología de tecnologías, como Marvin Minsky y Claude Shannon. McCarthy lo definió como “la ciencia y la ingeniería de crear máquinas inteligentes, especialmente programas de computación.
La IA está relacionada con la tarea de utilizar ordenadores para comprender la inteligencia humana, pero no se limita a métodos que sean observables biológicamente”. En 1958, este experto fundó el Laboratorio de Inteligencia Artificial, en el Instituto Tecnológico de Massachusetts (MIT), convencido de que podía conseguir que las máquinas razonaran por sí solas algún día.
“La velocidad y la memoria de las computadoras actuales —decía McCarthy en los años sesenta— puede ser insuficiente para estimular muchas de las funciones más complejas del cerebro humano. Pero el principal obstáculo no es esta incapacidad, sino la nuestra para escribir programas que aprovechen por completo lo que tenemos”.
Una frase con la que está muy de acuerdo una de las figuras más controvertidas en el panorama de la IA: Raymond Kurzweil. Este nació en 1948, dos años antes de que Turing difundiera su test. Kurzweil puso patas arriba el universo tecnológico con la publicación de La singularidad está cerca (2005), donde predecía, entre otras cosas, que la inteligencia sintética sobrepasaría a la biológica en apenas treinta años.
Arquitectos de la inteligencia artificial
Este profesor de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Stanford y director de Ingeniería de Google llega a decir en su libro que “la potencia de las tecnologías de información crece exponencialmente, a un ritmo todavía mayor que lo que establecía la ley de Moore [esta señala que cada dos años se duplica el número de transistores en un microprocesador y, por tanto, se dobla la capacidad de computación], y actualmente se multiplica por dos cada año. Por ello, hacia el final de esta década [en 2010], tendremos el hardware necesario para emular la inteligencia humana con superordenadores”.
No se equivocó Kurzweil. En 2011, Watson, el sistema de inteligencia artificial de IBM, fue capaz de ganar a los mejores participantes del concurso de televisión norteamericano Jeopardy!, de preguntas y respuestas. Catorce años antes, otra máquina de IBM, el Deep Blue, derrotó al entonces campeón del mundo de ajedrez, el ruso Gary Kasparov. Este reconoció el año pasado que la inteligencia sintética es capaz de ganar a cualquier humano en este juego, y que nada volverá a ser igual en el mundo del ajedrez.
A buen seguro, cualquiera que haya leído el libro de Kurzweil se habrá quedado anonadado no solo ante sus afirmaciones, sino también ante su particular forma de prepararse para el futuro que viene. Este inventor y científico se toma en la actualidad alrededor de cien pastillas al día para mantenerse en perfecto estado de salud y poder criopreservar su cerebro cuando llegue el momento. Piensa que podrá implantarlo en otro cuerpo o, quién sabe, en una máquina.
IA: una revolución que cambiará el mundo tal como lo conocemos
“La mayor parte de la inteligencia de nuestra civilización acabará siendo no biológica. Hacia finales de este siglo, dicha inteligencia será billones de billones de veces más potente que la humana. Y en el momento de la singularidad, no habrá distinción entre humanos y tecnología. Esto será así no porque nos hayamos convertido en lo que hoy entendemos por máquinas, sino más bien porque las máquinas habrán progresado hasta llegar a ser humanas, y más que humanas”.
La IA aplicada a la educación y a la sanidad
Las innovadoras ideas de McCarthy y, sobre todo, de Kurzweil tienen su correlato en las de otro de los teóricos y científicos con mayor legión de seguidores. Andrew Yan-Tak Ng, sin ir más lejos, es el autor de avances e investigaciones en machine learning (aprendizaje automático), deep learning (aprendizaje profundo) y computer vision (visión artificial), tres de los campos de la inteligencia artificial con mayor proyección en la actualidad. Ng dejó la compañía tecnológica china Baidu, y antes Google, para dedicarse a la universidad –es profesor en la de Stanford (California)– y trabajar en proyectos como el helicóptero autónomo.
Cuando se despidió de Baidu, el científico británico anunció en una entrevista concedida a la revista MIT Technology Review que centraría su futuro en aplicar la inteligencia artificial a la sanidad y la educación, y que los avances en los que está trabajando en machine y deep learning tendrán pronto visibilidad: “Todos poseeremos coches autónomos, ordenadores con los que hablaremos naturalmente y robots de asistencia sanitaria que entenderán nuestras enfermedades”.
La inteligencia artificial y su promesa de un futuro sin límites
Con razón, empresas consultoras como PwC señalan que la inteligencia artificial está destinada a protagonizar, si no lo está haciendo ya, la próxima revolución tecnológica, siguiendo los pasos de internet y la movilidad. Con un impacto esperado para 2030 que supondrá un crecimiento del 14 % del PIB mundial, va a transformar las estrategias y los modelos operativos del mundo empresarial.
La IA se puede definir como un proceso diseñado para replicar operaciones que se consideran propias de la inteligencia humana. El machine learning es una disciplina dentro de la IA que crea sistemas que aprenden.
Al principio era capaz de automatizar un conjunto de tareas repetitivas en base a unas características, pero hoy la propia máquina puede ya seleccionar las más idóneas para llevar a cabo su labor. E incluso para que sean las máquinas las que enseñen a otras a construir más ingenios inteligentes. Hablamos del machine teaching, sistema en el que Google lleva trabajando algún tiempo, aunque actores como Microsoft no lo vean plausible a corto y medio plazo.
El deep learning es una técnica concreta del machine learning que permite el aprendizaje profundo mediante modelos informáticos similares a las redes neuronales del cerebro humano. Los algoritmos permiten que el ordenador aprenda a partir de los datos, por lo que son dichos algoritmos los que determinan las reglas de comportamiento, en función de las conclusiones obtenidas. Así, no hay necesidad de establecer normas de conducta que repliquen el proceder del ser humano ante situaciones concretas.
El deep learning
La aplicación del deep learning hace posible interpretar lo que nos rodea a través del reconocimiento de imágenes o el análisis del lenguaje natural. Esta es la vertiente más enfocada a replicar las habilidades sensitivas de las personas.
En este sentido, un informe de PwC apunta lo siguiente: “Con la disrupción digital y el consiguiente aumento de dispositivos móviles, la generación de información se ha disparado en los últimos años. Esta situación de abundancia conlleva retos no solo en el manejo del volumen de datos, sino en el tratamiento de sus distintos formatos. La generación creciente de información no estructurada, que suma en torno al 88 % del total, requiere de tecnologías que permitan identificarla y transformarla en datos útiles. Para ser correctamente identificados y etiquetados, los sonidos y las imágenes requieren de comprensión del lenguaje natural o visión artificial”.
La aplicación de IA para replicar tales sentidos humanos se conoce como servicios cognitivos.
Esta tecnología permite, por ejemplo, interpretar las expresiones faciales de la persona que habla ante una cámara frontal. Conseguir esta comprensión automática de los datos no es fácil, porque el programa no solo tiene que leer o escuchar la información, sino también relacionarla e interpretarla para actuar o responder en consecuencia.
Experiencia realista
El mundo de los videojuegos, indica la consultora norteamericana, también echa mano de la IA con la intención de crear una experiencia lo más realista posible. La empresa Human Interact, por ejemplo, ha creado un juego de realidad virtual, Starship Commander, con un sofisticado reconocimiento de voz que permite al usuario interactuar con los personajes mediante el lenguaje natural, como en el mundo real.
Cuando apareció el concepto de IA, en los años cincuenta, se tenía acceso a una cantidad limitada de información, y por ello no evolucionó de la forma y con la velocidad que se preveía. Ahora, la disponibilidad de grandes volúmenes de datos está acelerando la eficacia de sus algoritmos. Según los expertos, el internet de las cosas (IoT, por sus siglas en inglés) se convertirá en la mayor fuente de información, ya que el número de dispositivos conectados por persona se incrementará de manera notable.
Aunque algunos analistas y académicos señalan que volverá a haber una etapa durmiente de la inteligencia artificial, otros creen que la revolución es ya imparable. Y luego está, claro, Kurzweil, quien profetiza que “hacia el final de la década de 2020 habrá una inteligencia artificial indistinguible de la humana”.
Cortesía de Muy Interesante
Dejanos un comentario: