Se necesita personal que dé sentido a los datos: donde no llega la inteligencia artificial

Hay una corriente muy generalizada a pensar que el big data va a eliminar muchos puestos de analistas. Pero también creará otros en los que la colaboración hombre-máquina sea cada vez más necesaria.

Palabras clave: big data, deep learning, storyteller

Autor: Javier Carbonell

El crecimiento exponencial de la información generada por el mundo digital ha llevado a que conceptos como Big Data o Machine Learning que hace unos años eran conocidos solamente entre los expertos en sistemas computacionales hayan pasado a un público menos tecnológico. En la actualidad es común que especialistas de campos muy distantes hablen sobre ellos con total naturalidad.

Y es que existe una opinión cada vez más generalizada de que unas cuantas bases de datos por aquí, unos algoritmos por allá, más unos conceptos novedosos como la web en tiempo real o internet of things, y los sistemas computacionales serán capaces de sacar sus propias conclusiones y de paso dejar sin trabajo a un gran número de analistas.

Sin embargo, esto no es lo que está pasando, los sistemas más o menos inteligentes son capaces de tratar información, pero generalmente no son capaces de ofrecer una conclusión definitiva. La consecuencia fundamental ha sido que muchos profesionales ven de repente aumentada su capacidad de realizar análisis avanzados, en muchos casos sin necesidad de apenas inversiones. También cada día tendrá más sentido el puesto de Storyteller que sea capaz de buscar un relato que dé sentido a los datos. Creo que lejos de eliminar la actividad humana, la inteligencia artificial potenciará la colaboración hombre-máquina . Y es que son muchas las situaciones en las que tomar la última decisión requiere comprender bien lo que está sucediendo, y por ahora creo que los ordenadores están todavía lejos de cubrir ese último eslabón en los análisis.

AI Bubble, cuando la personalización se vuelve en nuestra contra

Pareced el paradigma fundamental de los sistemas de Big Data e Inteligencia artificial, ofrecer al usuario información personalizada. ¿Pero no corremos el peligro de perdernos muchas cosas buenas con ello?

Tiempo de lectura 1 minuto

Palabras clave: inteligencia artificial, AI bubble, personalización

Autor: Javier Carbonell

Parece que es el paradigma fundamental en todos los sistemas de comercio electrónico, big data, noticias… Hay que personalizar la información, todos somos diferentes y por tanto que mejor manera que llegar al cliente que presentar un producto a la medida de sus gustos.

Hasta ahí todo parece lógico. Sin embargo, si profundizamos un poco más vemos que algo falla, cada vez recibimos la información de forma más personalizada y esto hace que cada vez estemos más encasillados en un perfil. Al final los servicios no nos envían toda la información que poseen, sino que utilizan una serie de filtros, que con la llegada de la inteligencia artificial son cada vez más poderosos. Como consecuencia, lejos de abrir nuevos horizontes en las personas, cada vez los estrechan más, metiéndonos en auténticas burbujas que reafirman nuestros gustos e ideología en vez de enriquecernos con puntos de vista completamente diferentes a los nuestros.

Se trata de un fenómeno que ya está siendo estudiado y que plantea cuestiones interesantes como muestra el siguiente artículo https://www.inverse.com/article/27984-can-artificial-intelligence-be-random. Por ejemplo, ¿que será más interesante? Ofrecer a los usuarios un mundo que encaja completamente con sus ideas evitando fricciones o, por el contrario, plantear continuos desafíos.

La verdad es que creo que no se trata de un tema menor, aprendemos en la vida con las cosas que son diferentes a nuestras ideas preestablecidas, y yo creo que los expertos en big data y en inteligencia artificial deberían tener eso muy en cuenta.

La ley de Moore está muerta: se necesitan chips más inteligentes, no más rápidos

Ya no vale con la Ley de Moore, los chips tienen que ser más inteligentes, no más rápidos para conseguir que la inteligencia artificial se convierta en una realidad

Tiempo de lectura 1 minuto

Palabras clave: inteligencia artificial, nVidia, machine learning, Ley de Moore, GPU, Apple, Microsoft

 

Autor: Javier Carbonell

 

Hasta hace poco tiempo las mejoras en el mundo de la computación han venido asociadas al cumplimiento de la Ley de Moore, esa que dice que la velocidad de los microprocesadores se duplicaba aproximadamente cada dos años, y que ha conseguido que durante los últimos 50 años se haya producido un crecimiento impresionante en las capacidades computacionales.

Pero ya no vale con ser más rápido, los nuevos desafíos implican que hay que trabajar mejor, y trabajar mejor significa trabajar más inteligentemente. Ante esta situación todos los fabricantes de microprocesadores (AMD, nVidia, Qualcomm, Intel…) están empezando a realizar sus diseños teniendo en cuenta conceptos como Machine Learning o Inteligencia Artificial que hasta ahora se estaban abordando desde el software. Y es que nuevas arquitecturas de hardware, con nuevos elementos y módulos software, tendrán la capacidad de fomentar la inteligencia artificial más que muchos algoritmos.

Quizás el caso más interesante en esta tendencia viene de la mano de nVidia, una empresa especializada en procesadores gráficos (GPU) que ha apostado por el machine learning, la inteligencia artificial, las criptomonedas y sobre todo por llevar estos conceptos a la categoría del PC Gaming, todo un nuevo segmento de computación. Todo ello ha supuesto que esta compañía haya tenido una revalorización de más del 700% en los dos últimos años y todavía siga subiendo.

Se trata de un movimiento muy importante que nos permitirá implementar soluciones que hasta ahora solo podemos imaginar y que está llevando a que empresas como Google o Microsoft se hayan vuelto en improvisados fabricantes de chips , también Apple está en ello, creo que no será el último.

A vueltas con los impuestos a los robots

Desde diversos sectores de la sociedad se empieza a pedir cargar con impuestos a los robots. Se trata así de paliar el efecto negativo que su presencia provoca en el mercado de trabajo, aunque ¿tiene sentido esta medida?

 

Tiempo de lectura 1 minuto.

Palabras clave: robots, impuestos, inteligencia artificial

Autor: Javier Carbonell

Es uno de los temas recurrentes en el ámbito de la tecnología y de su impacto social. Existe una percepción generalizada de que los robots nos están quitando los puestos de trabajo y por tanto desde entornos muy diferentes (desde Bill Gates, al partido socialista francés) empiezan a reclamar un impuesto sobre su uso para paliar el “daño” social que están haciendo. Parecía que en los últimos tiempos esta idea había perdido fuerza, pero veo que otra vez vuelve a copar portadas de periódicos, esta vez en San Francisco.

Creo que detrás de esta iniciativa hay algunas apreciaciones erróneas que me gustaría resaltar:

  • Está todavía por ver que la automatización tenga un balance negativo en el empleo a medio plazo. Al menos podemos cuestionárnoslo porque en otras épocas no ha sucedido y además en la actualidad los países más avanzados tecnológicamente son los que menos desempleo tienen.
  • Hay billones de euros en subvenciones destinados a mejorar la productividad, lo cual incluye la automatización. Subvencionar algo y también cargarlo impuestos no parece muy lógico. Sobre una situación parecida Milton Friedman comentaba que los efectos de estas medidas se anulaban, pero los costes se sumaban.
  • No conozco a nadie reclamando volver al trabajo manual en el campo, o realizar las tareas repetitivas que hacen las máquinas ahora.

Da la sensación que estamos mirando al futuro desde el espejo retrovisor. La nueva revolución industrial es una gran oportunidad de transformación social que debemos aprovechar y que traerá trabajo de más calidad e incluso puede que también nuevos modelos laborales y sociales. Si desincentivamos su llegada con impuestos, lo normal es que otras zonas del planeta nos tomen la delantera.

Los límites de los interfaces hombre-máquina. El punto débil del BCI (Brain Computer Interface)

Cada día se tiende a interfaces más transparentes para el usuario, incluso los sistemas BCI (Brain computer interface) auguran su completa eliminación. Pero no vayamos tan rápido, nuestro pensamiento, materializado en el lenguaje supone una barrera que nadie ha comentado como abordar

Palabras clave: BCI, Brain Computer Interface,

 

Autor: Javier Carbonell

 

Los interfaces entre los usuarios y los sistemas computacionales se encuentran en una continua evolución. Se ha pasado de interfaces en los que era necesario escribir comandos complejos para enviar órdenes, a otros mucho más gráficos, y de ahí a sistemas capaces de interpretar los gestos y que reaccionan ante el habla.

Esta carrera por desarrollar modos de relación cada vez más intuitivos y transparentes para el usuario parece no tener fin y tiene como principio básico el que no hay mejor interfaz que el que no existe. Esta máxima nos lleva a mirar directamente la comunicación directa entre el cerebro y la máquina, lo que en inglés se ha venido a denominar BCI (Brain Computer Interface). Se trata de una tecnología en la que se ha invertido ya mucho dinero en investigación y que ha empezado a dar los primeros resultados. Estos avances han dado pie a que los creadores de ciencia ficción y también los expertos en “foresight” planteen un mundo futuro en el que las personas envían órdenes complejas a las máquinas simplemente pensándolas, como se propone en el siguiente artículo.

Esta propuesta que parece idílica considero que tiene un punto débil, o al menos que yo no soy capaz de entender cómo se podrá abordar. Si todos los grandes pensadores: Wittgenstein, Gadamer, Chomsky… consideran que los pensamientos complejos solo pueden producirse en el lenguaje, ¿Van a ser capaces de entender estas máquinas las palabras que estás pensando? Ya decía Platón que el pensamiento es el diálogo del alma consigo misma. A mí me parece muy difícil un interfaz capaz de captar este diálogo.

 

El nuevo yacimiento de empleo: se necesita inteligencia humana para dirigir la inteligencia artificial

La irrupción de la Inteligencia Artificial ha creado una alarma sin precedentes por su capacidad para reducir empleos. Sin embargo la experiencia de pasadas revoluciones industriales muestra que lo que se necesita es más inteligencia humana, eso sí, debidamente formada para dirigir a la inteligencia artificial

Tiempo de lectura un minuto

Palabras clave: automatización, inteligencia artificial, inteligencia humana

 

Autor: Javier Carbonell

Llevamos unos años que no paramos de oír hablar sobre la automatización en la mayoría de los ámbitos de la economía y del miedo que está provocando en la sociedad la posibilidad de que las máquinas nos quiten el trabajo. Y es que no es para menos, desde que Oxford hizo un estudio http://www.eng.ox.ac.uk/about/news/new-study-shows-nearly-half-of-us-jobs-at-risk-of-computerisation que afirmaba que casi el 50% del trabajo se encontraba en peligro por culpa de la automatización, la mayoría de los gremios profesionales se preguntan si serán ellos los primeros en ser apartados por las nuevas capacidades de las máquinas.

El tiempo va pasando y por ahora no parece que se vayan cumpliendo los pronósticos e incluso son muchas las voces que apuntan en otras direcciones e incluso en dirección contraria, sobretodo basándose en comparaciones con revoluciones industriales previas.

Pero en lo que la mayoría de los expertos se encuentran de acuerdo es que los trabajadores necesitarán potenciar ciertas capacidades para poder mantenerse en el mercado de trabajo, por ejemplo, el pensamiento crítico o la creatividad. Por ello, la formación, sobre todo la formación entendida de una forma amplia, no solo en el colegio y la universidad, sino a lo largo de toda la vida de las personas, será el factor clave que se necesitará potenciar.

Tal y como muestra el siguiente artículo https://techcrunch.com/2017/01/14/putting-the-intelligent-machine-in-its-place/ , habrá una gran demanda de inteligencia humana que sea capaz de manejar a la inteligencia artificial . Ese es el gran desafío el mercado de trabajo de los próximos años e incluso decenios.

Redes sociales, reputación y crédito social: ingredientes para una distopía

Cada día nuestra huella en Internet es más honda, la combinación sin control con técnicas big data puede hacer que la barrera entre la utopía y la distopía sea más delgada de lo que parece

Tiempo de lectura 1 minuto.

Palabras clave: redes sociales, crédito social, distopía

Autor: Javier Carbonell

 

Nos hemos ido acostumbrando a que las aplicaciones sociales ocupen un lugar central en nuestra vida en Internet, ya no solo se trata de compartir contenidos con personas más o menos cercanas, sino que alrededor de estas aplicaciones se ha ido tejiendo nuestra identidad digital. Y es que el número de seguidores que tenemos, el número de recomendaciones, de “likes”, se han convertido en un nuevo símbolo de estatus. Estatus que tiene importancia en aspectos de la vida real como a la hora de buscar empleo.

La verdad que hasta ahí parece aceptable, pero en algunos casos se quiere ir un paso más allá, como la administración de la capital de Hangzhou en el este de China. En esta ciudad están pensando crear un “crédito social”. Se trata de un concepto amplio en el que se mezclan variables que las administraciones poseen sobre nosotros como multas de tráfico o incumplimiento de obligaciones tributarias, con otras más relativas al menos a la hora de medirse y que creo que invaden la esfera de la vida personal, como la valoración como ciudadano o el respeto por los padres.

Se trata de Big Data, para una gran población que puede condicionar desde las prestaciones hasta los estudios que puede llevar a cabo. En definitiva, un mundo vigilado al estilo orweliano en el que los algoritmos, o los que manejan los algoritmos, dirigen la sociedad. A mi entender una distopía a la que hay que temer.