¿Nos sirve de algo tener una máquina que se comporte exactamente como un ser humano, teniendo miles de millones en nuestro planeta?.
La ciencia ficción y Hollywood en particular nos han obsequiado con multitud de visiones futuristas y en la mayoría de los casos, apocalípticas, en las cuales se plantean escenarios en los que las máquinas son tan avanzadas que los seres humanos nos volvemos prescindibles o somos sustituidos.
Obviamente hay muchas evidencias en las que las máquinas tienen algunas capacidades que mejoran las nuestras, pero también hay muchas otras en las que no vislumbramos que las máquinas puedan llegar a estar cerca de nuestras habilidades.
Pero, aunque llegáramos a ese hito científico, nuestra conclusión es que no nos sirve de nada tener una máquina que se comporte como un humano, teniendo tantos miles de millones en nuestro planeta.
Nuestra visión es que cada vez somos más dependientes de nuestra tecnología, pero más que tender hacia el “imperio” de las máquinas, nos estamos inclinando hacia una simbiosis, donde podemos ampliar nuestras capacidades. Pero sin lugar a dudas, nuestra tecnología requiere de nuestras habilidades para poder perdurar.
Llegados a este punto, vamos a tratar de analizar el alcance real a día de hoy, de tres fenómenos que levantan mucha expectación entre el público general y que están íntimamente ligados al campo de desarrollo de la IA.
Un escenario futurista que se ha planteado es el de la singularidad tecnológica.
La singularidad tecnológica básicamente establece que llegará un momento en que la tecnología se desarrollará de manera tan rápida que las máquinas, serán capaces de mejorarse a sí mismas, llegando a desarrollar ingenios que serán muy superiores a nuestra capacidad intelectual, física y más tarde a nuestro control.
Este polémico concepto proviene en gran parte de la Ley de Moore, propuesta allá en 1965, que establece que el número de transistores en un microprocesador se duplica aproximadamente cada dos años. Es decir, la capacidad de computación crece de forma exponencial. Desde entonces, su predicción se viene cumpliendo con cierta exactitud.
En este punto tenemos visiones disonantes de si esta ley seguirá vigente en el futuro y de si a partir de este crecimiento en la capacidad de cálculo y computación llegaremos a la susodicha singularidad.
Por una parte, algunos autores, como Ray Kurzweil (actual director de ingeniería en Google), han sugerido que la singularidad tecnológica ocurrirá a mediados del siglo XXI.
Sin embargo, hasta el propio Moore afirmó en 2010, que su ley había quedado obsoleta y señalaba que hay límites físicos a la miniaturización de los chips y a las velocidades que pueden llegar a alcanzar sin fundirse.
Intel, el fabricante líder de microprocesadores confirma que, a día de hoy, siguen cumpliendo la Ley de Moore, y tienen previsto seguir haciéndolo, aunque con ciertos límites. Para el año 2020, prevén que contaran con procesadores de 7 nanómetros, considerado el tamaño mínimo alcanzable.
Durante todo este tiempo muchos han ido asegurado que su vigencia estaba a punto de finalizar, aunque hasta ahora todos ellos han errado en sus vaticinios.
De todas formas, algunos de estos límites físicos que nos imponía el hardware, se han compensado con diversas tecnologías como, por ejemplo:
Usando múltiples procesadores, núcleos o unidades de procesamiento gráfico (GPU) básicamente son coprocesadores dedicados al procesamiento de gráficos u operaciones de coma flotante, para de esta manera aligerar la carga de trabajo del procesador central y aumentar la capacidad de proceso.
También hemos resuelto parte del problema con la computación paralela, es decir usando simultáneamente varios recursos de cómputo para resolver un problema computacional. Los recursos son CPUs o núcleos, estos pueden estar en una computadora con varios núcleos, o en varias computadoras conectadas en una red, o incluso en un ambiente mixto.
Dividimos un problema en muchas partes y que puedan resolverse a la vez, es decir concurrentemente. A cada parte se le asigna a una CPU distinta. De esta forma se pueden resolver problemas más rápido, o resolver problemas que necesitan más memoria de la que una sola computadora dispone.
Pero aquí también nos encontramos con grandes trabas, a veces los problemas no son tan fácilmente paralelizables, de hecho, existen algunos problemas que son inherentemente secuenciales como, por ejemplo, la programación lineal, los métodos numéricos iterativos, en definitiva, hay muchos problemas que son difícilmente paralelizables.
Esta nueva tecnología quiere ir un paso más allá de la electrónica clásica y tiene poco que ver con los transistores de la electrónica tal y como los conocemos, esto dejaría obsoleta la Ley de Moore.
El principal problema al que se enfrenta la computación cuántica es construir los ordenadores. Un ordenador cuántico es una computadora extremadamente compleja: funcionan a una temperatura cercana al cero absoluto (-273 ºC, 0 K).
En la computación clásica el bit es la unidad mínima de información, en la cuántica es el qubit. La diferencia principal entre ellos es que, el bit tradicional sólo puede entregar resultados binarios (0 ó 1), mientras que el qubit, aprovechando las propiedades de la mecánica cuántica, puede tener ambos valores al mismo tiempo (0 y 1), lo que habilita una velocidad de procesamiento mucho mayor.
El problema principal, como hemos comentado anteriormente es el construir estas máquinas ya que el soporte de qubits tienen que ser superconductores.
La temperatura crítica (0 K) de los superconductores juega un papel importante en el desarrollo de las aplicaciones debido al coste y la dificultad de refrigerar a temperaturas tan bajas. Por ello la búsqueda de un superconductor a temperatura ambiente sigue siendo uno de los mayores retos en lo que se refiere a la síntesis de nuevos materiales. Por otra parte, los componentes para poder leer y manipular los qubits son bastante complejos también.
Además, si esto no fuera poco, los qubits no suelen ser estables, son extremadamente sensibles a las perturbaciones y al ruido.
Las técnicas de aprendizaje automatizado y cómputo evolutivo, son un tipo de inteligencia artificial que proporciona a las computadoras la capacidad de aprender, sin ser programadas explícitamente.
El aprendizaje automático es una rama de la Inteligencia Artificial que abarca diferentes técnicas, las cuales permiten dotar a los computadores de la capacidad de "aprender" modelos tales que, de forma automática, pueden ser usados, para resolver problemas nuevos o para mejorar el rendimiento en problemas ya vistos.
No nos vamos a detener en este ítem porque la literatura es extensa y la información muy accesible.
Lo que si vamos a hacer es poner sobre la mesa las deficiencias o mitos que nos encontramos a día de hoy con esta tecnología.
Es cierto que la potencia del machine learning a la hora de encontrar correlaciones puede ser muy superior a la del ser humano, pero eso no significa que pueda establecer conclusiones inteligentes.
El aprendizaje automático permite detectar patrones, pero estos no siempre implicarán una causalidad. Por ello, tras la detección de correlaciones aún suele ser necesaria la intervención de seres humanos, para valorar los resultados obtenidos.
Por otro lado, el aprendizaje automático, aunque guarde ciertas similitudes con el aprendizaje humano no es igual, hay que hacer notar que todavía no conocemos el funcionamiento del cerebro humano con el suficiente detalle como para afirmar que un sistema de aprendizaje automático es igual que el de un ser humano.
Lo que sí sabemos es que el cerebro humano es muchísimo más eficiente en sus procedimientos de aprendizaje que el mejor de los sistemas de machine learning.
El cerebro de un niño de pocos años es capaz de identificar un animalito, por ejemplo, un elefante, basta que lo haya visto unas pocas veces, en un cuento o en fotografía, mientras que un sistema de machine learning tendría que “visionar” miles y miles de fotografías del mismo tipo de animal para identificarlo.
“La Vida Artificial consiste en observar la vida natural e imitarla en un ordenador [Prata, 1993] [Herrán, agosto 1997]”.
“Un programador con espíritu práctico no envidia la capacidad de la naturaleza para resolver problemas: la imita” [Holland, septiembre 1992].
La computación evolutiva interpreta la naturaleza como una inmensa máquina de resolver problemas y trata de encontrar el origen de dicha potencialidad para utilizarla en nuestros programas.
Tenemos que tener en cuenta que la computación evolutiva es un término relativamente nuevo que intenta agrupar un batiburrillo de paradigmas muy relacionados cuyas competencias no están aún muy definidas.
En el contexto de una integración entre humanos y máquinas, la idea de los cyborgs también ha sido popular en el cine y en la ciencia ficción.
En este campo nos encontramos impresionantes avances sobre todo en el campo clínico.
Sin embargo, se debe señalar que una de las mayores limitaciones que presentan estos sistemas se relaciona con la biocompatibilidad de los sistemas implantados. (Neuronas y metal no parecen buenos compañeros de cama).
La biocompatibilidad es la capacidad de un material para realizar una respuesta de host apropiada en una aplicación específica (Williams, 1987)
De hecho, se refiere a los aspectos relativos a la ausencia de toxicidad, inmunogenicidad, carcinogenicidad (producen cáncer) y trombogenicidad (producen una trombosis).
En este sentido, también nos encontramos con una fuerte imposición ética relacionada con la utilización de pacientes en situación de discapacidad para experimentar con implantes.
En la actualidad, estos implantes son de corta duración, con tiempos máximos de registro activo de la actividad neuronal no superior a un año. Además, presentan alta probabilidad de desarrollar reacciones infecciosas y no siempre son la opción con la mejor relación costo-beneficio para el paciente.
Y si estamos sanos y nuestro cuerpo funciona de manera aceptable ¿Para qué conectar con cirugía un cable o un chip que probablemente el cuerpo rechace?
Obviamente ya disponemos de la capacidad de conectarnos con nuestros sensores naturales.
El ancho de banda del nervio óptico en humanos es de entre 6 y 10 megabits/segundo.
La diferencia entre nuestros ancestros y nuestra generación, no está a nivel biológico, sino a nivel de integración que hemos logrado con nuestra tecnología aumentar nuestras capacidades cognitivas.
En definitiva hacer predicciones es muy difícil, no está claro lo que pasará con las revoluciones tecnológicas asociadas al campo de la IA, y es bueno tomarse las predicciones con cierto escepticismo, vengan de quien vengan.
Lo que sí parece más que probable es que el futuro cercano nos tiene reservadas enormes sorpresas en el mundo de la inteligencia artificial.
* Artículo de Carlos Llerena – CMO en The Shed Coworking *
Obviamente hay muchas evidencias en las que las máquinas tienen algunas capacidades que mejoran las nuestras, pero también hay muchas otras en las que no vislumbramos que las máquinas puedan llegar a estar cerca de nuestras habilidades.
Pero, aunque llegáramos a ese hito científico, nuestra conclusión es que no nos sirve de nada tener una máquina que se comporte como un humano, teniendo tantos miles de millones en nuestro planeta.
Nuestra visión es que cada vez somos más dependientes de nuestra tecnología, pero más que tender hacia el “imperio” de las máquinas, nos estamos inclinando hacia una simbiosis, donde podemos ampliar nuestras capacidades. Pero sin lugar a dudas, nuestra tecnología requiere de nuestras habilidades para poder perdurar.
Llegados a este punto, vamos a tratar de analizar el alcance real a día de hoy, de tres fenómenos que levantan mucha expectación entre el público general y que están íntimamente ligados al campo de desarrollo de la IA.
(Background vector created by starline - www.freepik.com)
1. ¿Singularidad tecnológica?
Un escenario futurista que se ha planteado es el de la singularidad tecnológica.
La singularidad tecnológica básicamente establece que llegará un momento en que la tecnología se desarrollará de manera tan rápida que las máquinas, serán capaces de mejorarse a sí mismas, llegando a desarrollar ingenios que serán muy superiores a nuestra capacidad intelectual, física y más tarde a nuestro control.
Este polémico concepto proviene en gran parte de la Ley de Moore, propuesta allá en 1965, que establece que el número de transistores en un microprocesador se duplica aproximadamente cada dos años. Es decir, la capacidad de computación crece de forma exponencial. Desde entonces, su predicción se viene cumpliendo con cierta exactitud.
En este punto tenemos visiones disonantes de si esta ley seguirá vigente en el futuro y de si a partir de este crecimiento en la capacidad de cálculo y computación llegaremos a la susodicha singularidad.
Por una parte, algunos autores, como Ray Kurzweil (actual director de ingeniería en Google), han sugerido que la singularidad tecnológica ocurrirá a mediados del siglo XXI.
Sin embargo, hasta el propio Moore afirmó en 2010, que su ley había quedado obsoleta y señalaba que hay límites físicos a la miniaturización de los chips y a las velocidades que pueden llegar a alcanzar sin fundirse.
Intel, el fabricante líder de microprocesadores confirma que, a día de hoy, siguen cumpliendo la Ley de Moore, y tienen previsto seguir haciéndolo, aunque con ciertos límites. Para el año 2020, prevén que contaran con procesadores de 7 nanómetros, considerado el tamaño mínimo alcanzable.
El futuro para la Ley de Moore
Durante todo este tiempo muchos han ido asegurado que su vigencia estaba a punto de finalizar, aunque hasta ahora todos ellos han errado en sus vaticinios.
De todas formas, algunos de estos límites físicos que nos imponía el hardware, se han compensado con diversas tecnologías como, por ejemplo:
a) GPU
Usando múltiples procesadores, núcleos o unidades de procesamiento gráfico (GPU) básicamente son coprocesadores dedicados al procesamiento de gráficos u operaciones de coma flotante, para de esta manera aligerar la carga de trabajo del procesador central y aumentar la capacidad de proceso.
a) Computación paralela
También hemos resuelto parte del problema con la computación paralela, es decir usando simultáneamente varios recursos de cómputo para resolver un problema computacional. Los recursos son CPUs o núcleos, estos pueden estar en una computadora con varios núcleos, o en varias computadoras conectadas en una red, o incluso en un ambiente mixto.
Dividimos un problema en muchas partes y que puedan resolverse a la vez, es decir concurrentemente. A cada parte se le asigna a una CPU distinta. De esta forma se pueden resolver problemas más rápido, o resolver problemas que necesitan más memoria de la que una sola computadora dispone.
Pero aquí también nos encontramos con grandes trabas, a veces los problemas no son tan fácilmente paralelizables, de hecho, existen algunos problemas que son inherentemente secuenciales como, por ejemplo, la programación lineal, los métodos numéricos iterativos, en definitiva, hay muchos problemas que son difícilmente paralelizables.
c) Conmutación cuántica
Esta nueva tecnología quiere ir un paso más allá de la electrónica clásica y tiene poco que ver con los transistores de la electrónica tal y como los conocemos, esto dejaría obsoleta la Ley de Moore.
El principal problema al que se enfrenta la computación cuántica es construir los ordenadores. Un ordenador cuántico es una computadora extremadamente compleja: funcionan a una temperatura cercana al cero absoluto (-273 ºC, 0 K).
En la computación clásica el bit es la unidad mínima de información, en la cuántica es el qubit. La diferencia principal entre ellos es que, el bit tradicional sólo puede entregar resultados binarios (0 ó 1), mientras que el qubit, aprovechando las propiedades de la mecánica cuántica, puede tener ambos valores al mismo tiempo (0 y 1), lo que habilita una velocidad de procesamiento mucho mayor.
El problema principal, como hemos comentado anteriormente es el construir estas máquinas ya que el soporte de qubits tienen que ser superconductores.
La temperatura crítica (0 K) de los superconductores juega un papel importante en el desarrollo de las aplicaciones debido al coste y la dificultad de refrigerar a temperaturas tan bajas. Por ello la búsqueda de un superconductor a temperatura ambiente sigue siendo uno de los mayores retos en lo que se refiere a la síntesis de nuevos materiales. Por otra parte, los componentes para poder leer y manipular los qubits son bastante complejos también.
Además, si esto no fuera poco, los qubits no suelen ser estables, son extremadamente sensibles a las perturbaciones y al ruido.
2. Técnicas de aprendizaje automatizado y cómputo evolutivo
Las técnicas de aprendizaje automatizado y cómputo evolutivo, son un tipo de inteligencia artificial que proporciona a las computadoras la capacidad de aprender, sin ser programadas explícitamente.
Aprendizaje automático (Machine learning)
El aprendizaje automático es una rama de la Inteligencia Artificial que abarca diferentes técnicas, las cuales permiten dotar a los computadores de la capacidad de "aprender" modelos tales que, de forma automática, pueden ser usados, para resolver problemas nuevos o para mejorar el rendimiento en problemas ya vistos.
No nos vamos a detener en este ítem porque la literatura es extensa y la información muy accesible.
Lo que si vamos a hacer es poner sobre la mesa las deficiencias o mitos que nos encontramos a día de hoy con esta tecnología.
Es cierto que la potencia del machine learning a la hora de encontrar correlaciones puede ser muy superior a la del ser humano, pero eso no significa que pueda establecer conclusiones inteligentes.
El aprendizaje automático permite detectar patrones, pero estos no siempre implicarán una causalidad. Por ello, tras la detección de correlaciones aún suele ser necesaria la intervención de seres humanos, para valorar los resultados obtenidos.
Por otro lado, el aprendizaje automático, aunque guarde ciertas similitudes con el aprendizaje humano no es igual, hay que hacer notar que todavía no conocemos el funcionamiento del cerebro humano con el suficiente detalle como para afirmar que un sistema de aprendizaje automático es igual que el de un ser humano.
Lo que sí sabemos es que el cerebro humano es muchísimo más eficiente en sus procedimientos de aprendizaje que el mejor de los sistemas de machine learning.
El cerebro de un niño de pocos años es capaz de identificar un animalito, por ejemplo, un elefante, basta que lo haya visto unas pocas veces, en un cuento o en fotografía, mientras que un sistema de machine learning tendría que “visionar” miles y miles de fotografías del mismo tipo de animal para identificarlo.
Cómputo evolutivo
“La Vida Artificial consiste en observar la vida natural e imitarla en un ordenador [Prata, 1993] [Herrán, agosto 1997]”.
“Un programador con espíritu práctico no envidia la capacidad de la naturaleza para resolver problemas: la imita” [Holland, septiembre 1992].
La computación evolutiva interpreta la naturaleza como una inmensa máquina de resolver problemas y trata de encontrar el origen de dicha potencialidad para utilizarla en nuestros programas.
Tenemos que tener en cuenta que la computación evolutiva es un término relativamente nuevo que intenta agrupar un batiburrillo de paradigmas muy relacionados cuyas competencias no están aún muy definidas.
3. ¿La era de los Cyborg?
En el contexto de una integración entre humanos y máquinas, la idea de los cyborgs también ha sido popular en el cine y en la ciencia ficción.
En este campo nos encontramos impresionantes avances sobre todo en el campo clínico.
Sin embargo, se debe señalar que una de las mayores limitaciones que presentan estos sistemas se relaciona con la biocompatibilidad de los sistemas implantados. (Neuronas y metal no parecen buenos compañeros de cama).
La biocompatibilidad es la capacidad de un material para realizar una respuesta de host apropiada en una aplicación específica (Williams, 1987)
De hecho, se refiere a los aspectos relativos a la ausencia de toxicidad, inmunogenicidad, carcinogenicidad (producen cáncer) y trombogenicidad (producen una trombosis).
En este sentido, también nos encontramos con una fuerte imposición ética relacionada con la utilización de pacientes en situación de discapacidad para experimentar con implantes.
En la actualidad, estos implantes son de corta duración, con tiempos máximos de registro activo de la actividad neuronal no superior a un año. Además, presentan alta probabilidad de desarrollar reacciones infecciosas y no siempre son la opción con la mejor relación costo-beneficio para el paciente.
Y si estamos sanos y nuestro cuerpo funciona de manera aceptable ¿Para qué conectar con cirugía un cable o un chip que probablemente el cuerpo rechace?
Obviamente ya disponemos de la capacidad de conectarnos con nuestros sensores naturales.
El ancho de banda del nervio óptico en humanos es de entre 6 y 10 megabits/segundo.
La diferencia entre nuestros ancestros y nuestra generación, no está a nivel biológico, sino a nivel de integración que hemos logrado con nuestra tecnología aumentar nuestras capacidades cognitivas.
El futuro
En definitiva hacer predicciones es muy difícil, no está claro lo que pasará con las revoluciones tecnológicas asociadas al campo de la IA, y es bueno tomarse las predicciones con cierto escepticismo, vengan de quien vengan.
Lo que sí parece más que probable es que el futuro cercano nos tiene reservadas enormes sorpresas en el mundo de la inteligencia artificial.
* Artículo de Carlos Llerena – CMO en The Shed Coworking *