La ley de Moore está muerta: se necesitan chips más inteligentes, no más rápidos

Ya no vale con la Ley de Moore, los chips tienen que ser más inteligentes, no más rápidos para conseguir que la inteligencia artificial se convierta en una realidad

Tiempo de lectura 1 minuto

Palabras clave: inteligencia artificial, nVidia, machine learning, Ley de Moore, GPU, Apple, Microsoft

 

Autor: Javier Carbonell

 

Hasta hace poco tiempo las mejoras en el mundo de la computación han venido asociadas al cumplimiento de la Ley de Moore, esa que dice que la velocidad de los microprocesadores se duplicaba aproximadamente cada dos años, y que ha conseguido que durante los últimos 50 años se haya producido un crecimiento impresionante en las capacidades computacionales.

Pero ya no vale con ser más rápido, los nuevos desafíos implican que hay que trabajar mejor, y trabajar mejor significa trabajar más inteligentemente. Ante esta situación todos los fabricantes de microprocesadores (AMD, nVidia, Qualcomm, Intel…) están empezando a realizar sus diseños teniendo en cuenta conceptos como Machine Learning o Inteligencia Artificial que hasta ahora se estaban abordando desde el software. Y es que nuevas arquitecturas de hardware, con nuevos elementos y módulos software, tendrán la capacidad de fomentar la inteligencia artificial más que muchos algoritmos.

Quizás el caso más interesante en esta tendencia viene de la mano de nVidia, una empresa especializada en procesadores gráficos (GPU) que ha apostado por el machine learning, la inteligencia artificial, las criptomonedas y sobre todo por llevar estos conceptos a la categoría del PC Gaming, todo un nuevo segmento de computación. Todo ello ha supuesto que esta compañía haya tenido una revalorización de más del 700% en los dos últimos años y todavía siga subiendo.

Se trata de un movimiento muy importante que nos permitirá implementar soluciones que hasta ahora solo podemos imaginar y que está llevando a que empresas como Google o Microsoft se hayan vuelto en improvisados fabricantes de chips , también Apple está en ello, creo que no será el último.

A vueltas con los impuestos a los robots

Desde diversos sectores de la sociedad se empieza a pedir cargar con impuestos a los robots. Se trata así de paliar el efecto negativo que su presencia provoca en el mercado de trabajo, aunque ¿tiene sentido esta medida?

 

Tiempo de lectura 1 minuto.

Palabras clave: robots, impuestos, inteligencia artificial

Autor: Javier Carbonell

Es uno de los temas recurrentes en el ámbito de la tecnología y de su impacto social. Existe una percepción generalizada de que los robots nos están quitando los puestos de trabajo y por tanto desde entornos muy diferentes (desde Bill Gates, al partido socialista francés) empiezan a reclamar un impuesto sobre su uso para paliar el “daño” social que están haciendo. Parecía que en los últimos tiempos esta idea había perdido fuerza, pero veo que otra vez vuelve a copar portadas de periódicos, esta vez en San Francisco.

Creo que detrás de esta iniciativa hay algunas apreciaciones erróneas que me gustaría resaltar:

  • Está todavía por ver que la automatización tenga un balance negativo en el empleo a medio plazo. Al menos podemos cuestionárnoslo porque en otras épocas no ha sucedido y además en la actualidad los países más avanzados tecnológicamente son los que menos desempleo tienen.
  • Hay billones de euros en subvenciones destinados a mejorar la productividad, lo cual incluye la automatización. Subvencionar algo y también cargarlo impuestos no parece muy lógico. Sobre una situación parecida Milton Friedman comentaba que los efectos de estas medidas se anulaban, pero los costes se sumaban.
  • No conozco a nadie reclamando volver al trabajo manual en el campo, o realizar las tareas repetitivas que hacen las máquinas ahora.

Da la sensación que estamos mirando al futuro desde el espejo retrovisor. La nueva revolución industrial es una gran oportunidad de transformación social que debemos aprovechar y que traerá trabajo de más calidad e incluso puede que también nuevos modelos laborales y sociales. Si desincentivamos su llegada con impuestos, lo normal es que otras zonas del planeta nos tomen la delantera.

Los límites de los interfaces hombre-máquina. El punto débil del BCI (Brain Computer Interface)

Cada día se tiende a interfaces más transparentes para el usuario, incluso los sistemas BCI (Brain computer interface) auguran su completa eliminación. Pero no vayamos tan rápido, nuestro pensamiento, materializado en el lenguaje supone una barrera que nadie ha comentado como abordar

Palabras clave: BCI, Brain Computer Interface,

 

Autor: Javier Carbonell

 

Los interfaces entre los usuarios y los sistemas computacionales se encuentran en una continua evolución. Se ha pasado de interfaces en los que era necesario escribir comandos complejos para enviar órdenes, a otros mucho más gráficos, y de ahí a sistemas capaces de interpretar los gestos y que reaccionan ante el habla.

Esta carrera por desarrollar modos de relación cada vez más intuitivos y transparentes para el usuario parece no tener fin y tiene como principio básico el que no hay mejor interfaz que el que no existe. Esta máxima nos lleva a mirar directamente la comunicación directa entre el cerebro y la máquina, lo que en inglés se ha venido a denominar BCI (Brain Computer Interface). Se trata de una tecnología en la que se ha invertido ya mucho dinero en investigación y que ha empezado a dar los primeros resultados. Estos avances han dado pie a que los creadores de ciencia ficción y también los expertos en “foresight” planteen un mundo futuro en el que las personas envían órdenes complejas a las máquinas simplemente pensándolas, como se propone en el siguiente artículo.

Esta propuesta que parece idílica considero que tiene un punto débil, o al menos que yo no soy capaz de entender cómo se podrá abordar. Si todos los grandes pensadores: Wittgenstein, Gadamer, Chomsky… consideran que los pensamientos complejos solo pueden producirse en el lenguaje, ¿Van a ser capaces de entender estas máquinas las palabras que estás pensando? Ya decía Platón que el pensamiento es el diálogo del alma consigo misma. A mí me parece muy difícil un interfaz capaz de captar este diálogo.

 

El nuevo yacimiento de empleo: se necesita inteligencia humana para dirigir la inteligencia artificial

La irrupción de la Inteligencia Artificial ha creado una alarma sin precedentes por su capacidad para reducir empleos. Sin embargo la experiencia de pasadas revoluciones industriales muestra que lo que se necesita es más inteligencia humana, eso sí, debidamente formada para dirigir a la inteligencia artificial

Tiempo de lectura un minuto

Palabras clave: automatización, inteligencia artificial, inteligencia humana

 

Autor: Javier Carbonell

Llevamos unos años que no paramos de oír hablar sobre la automatización en la mayoría de los ámbitos de la economía y del miedo que está provocando en la sociedad la posibilidad de que las máquinas nos quiten el trabajo. Y es que no es para menos, desde que Oxford hizo un estudio http://www.eng.ox.ac.uk/about/news/new-study-shows-nearly-half-of-us-jobs-at-risk-of-computerisation que afirmaba que casi el 50% del trabajo se encontraba en peligro por culpa de la automatización, la mayoría de los gremios profesionales se preguntan si serán ellos los primeros en ser apartados por las nuevas capacidades de las máquinas.

El tiempo va pasando y por ahora no parece que se vayan cumpliendo los pronósticos e incluso son muchas las voces que apuntan en otras direcciones e incluso en dirección contraria, sobretodo basándose en comparaciones con revoluciones industriales previas.

Pero en lo que la mayoría de los expertos se encuentran de acuerdo es que los trabajadores necesitarán potenciar ciertas capacidades para poder mantenerse en el mercado de trabajo, por ejemplo, el pensamiento crítico o la creatividad. Por ello, la formación, sobre todo la formación entendida de una forma amplia, no solo en el colegio y la universidad, sino a lo largo de toda la vida de las personas, será el factor clave que se necesitará potenciar.

Tal y como muestra el siguiente artículo https://techcrunch.com/2017/01/14/putting-the-intelligent-machine-in-its-place/ , habrá una gran demanda de inteligencia humana que sea capaz de manejar a la inteligencia artificial . Ese es el gran desafío el mercado de trabajo de los próximos años e incluso decenios.

Redes sociales, reputación y crédito social: ingredientes para una distopía

Cada día nuestra huella en Internet es más honda, la combinación sin control con técnicas big data puede hacer que la barrera entre la utopía y la distopía sea más delgada de lo que parece

Tiempo de lectura 1 minuto.

Palabras clave: redes sociales, crédito social, distopía

Autor: Javier Carbonell

 

Nos hemos ido acostumbrando a que las aplicaciones sociales ocupen un lugar central en nuestra vida en Internet, ya no solo se trata de compartir contenidos con personas más o menos cercanas, sino que alrededor de estas aplicaciones se ha ido tejiendo nuestra identidad digital. Y es que el número de seguidores que tenemos, el número de recomendaciones, de “likes”, se han convertido en un nuevo símbolo de estatus. Estatus que tiene importancia en aspectos de la vida real como a la hora de buscar empleo.

La verdad que hasta ahí parece aceptable, pero en algunos casos se quiere ir un paso más allá, como la administración de la capital de Hangzhou en el este de China. En esta ciudad están pensando crear un “crédito social”. Se trata de un concepto amplio en el que se mezclan variables que las administraciones poseen sobre nosotros como multas de tráfico o incumplimiento de obligaciones tributarias, con otras más relativas al menos a la hora de medirse y que creo que invaden la esfera de la vida personal, como la valoración como ciudadano o el respeto por los padres.

Se trata de Big Data, para una gran población que puede condicionar desde las prestaciones hasta los estudios que puede llevar a cabo. En definitiva, un mundo vigilado al estilo orweliano en el que los algoritmos, o los que manejan los algoritmos, dirigen la sociedad. A mi entender una distopía a la que hay que temer.

Mucho hype y pocas nueces

Otro año más a vueltas con la realidad virtual. Deberíamos entender que un prototipo no significa que una tecnología esté preparada para ser utilizada y menos para ser comercializada masivamente.

Palabras clave: tecnologías emergentes, hype, Gartner, realidad virtual, inteligencia artificial, coche autónomo

Tiempo de lectura 1 minuto.

Autor: Javier Carbonell

El término “hype”, cuyo significado literal en inglés viene a ser “revuelo”, “publicidad” ha adquirido un significado propio en el terreno de las tecnologías emergentes después de que la consultora Gartner lo utilizara para referirse a aquellas tecnologías que levantan unas expectativas muy altas en la población que no se correspondían con la realidad, al menos en dicho momento.

Por este motivo en su famoso ciclo de vida de tecnologías emergentes, detrás de este momento de expectativas irracionales, llega el valle del desencanto, para comenzar después un largo periodo de crecimiento en el que la utilización de las tecnologías pueden incluso a llegar a superar las expectativas iniciales.

El gran problema actual es que nos encontramos en un periodo de Hype continuo, la necesidad de captar la atención y crear titulares de prensa llamativos no deja tiempo para el desencanto. Los que nos hemos dedicado a narrar lo que pasaba en el mundo de la tecnología nos hemos hartado a decir que realidad virtual, inteligencia artificial, los coches autónomos, … ya están aquí. Lo malo es que desde hace varios años se repiten los mismos mensajes o variantes de ellos, un año la preocupación es que los robots nos puedan quitar nuestro puesto de trabajo , y al siguiente ya es que se pueden revelar contra nosotros . Una carrera por ver quién es más futurista que en muchos casos crea confusión en vez de ayudar a los lectores a entender la situación de las tecnologías.

La privacidad en el hogar en los tiempos de los asistentes virtuales

Cada día son más habituales los asistentes virtuales en el hogar ¿podremos fiarnos de un sirviente que nos sirve a nosotros y a Jeff Bezos?

Palabras clave: privacidad, asistentes virtuales, HomePod, Amazon Echo, Google Home

Tiempo de lectura 1 minuto.

 

Autor: Javier Carbonell

Hace varias décadas las familias de clases media solían tener sus propios sirvientes en casa, pero las cosas han cambiado mucho desde entonces. Por una parte, la automatización ha avanzado a un ritmo imparable y los electrodomésticos como la lavadora o el lavavajillas han facilitado e incluso eliminado muchas de las actividades más rutinarias y que consumían más tiempo. Por otra parte, los salarios mínimos han subido, a lo que cual hay que sumar otras cargas salariales que supone el contratar a alguien, como seguridad social y otros impuestos.

Nos encontramos en un tiempo donde esta situación parece que empieza a darse la vuelta, y cada vez están entrando en casa más asistentes, lo que pasa es que esta vez no son de carne y hueso, sino que se trata de asistentes digitales o asistentes virtuales. Y es que el asistente virtual para el hogar es uno de los productos tecnológicos estrella en la actualidad, por ejemplo el Amazon Echo o Google Home , o el recién anunciado HomePod de Apple.

Se trata de dispositivos que todo lo ven y que todo lo escuchan, y en un hogar pasan muchas cosas, se dicen muchas cosas, como para que no nos importe que el asistente este al corriente de todas nuestras intimidades. La solución parece pasar por el estilo estricto de confidencialidad que se pide a los sirvientes en “Downton Abbey”. Sin embargo, yo me pregunto que, si el sirviente es también empleado de Jeff Bezos, ¿podremos confiar en él?, ¿qué tendrán que hacer para demostrarnos que merecen esa confianza?