Seleccione tu localización:

País

Seleccione un idioma:

  • span / Spanish
  • span / Spanish
  • span / Spanish
  • Portugués / Portuguese

Entrevista a J.del R. Millán

Conozca lo que piensa este científico, referente mundial en el desarrollo de interfaces Cerebro - Robot (BMI)  

15 de febrero de 2019


JOSÉ DEL R. MILLÁN es unos de los referentes mundiales en el desarrollo de las interfaces Cerebro-Robot. Con motivo de su asistencia como ponente a la Nit de la Robótica, Daniel Cavero (Director de Sales Support en KUKA Iberia) y Sandra Pérez (Directora de Marketing y Comunicación en KUKA Iberia), tuvieron la oportunidad de poder entrevistarle desde la perspectiva de la Robótica industrial. Nos acercamos con curiosidad y admiración al universo de posibilidades que se abre con sus investigaciones. 

JOSÉ DEL R. MILLÁN es catedrático del Área de Interfaces Cerebro-Robot de la Escuela Politécnica Federal de Lausana (EPFL) y director del CNBI (Center for Neuroprosthetics and Institute of Bioenergineering).

¿En qué consiste la comunicación vía interface cerebral?

Se trataría de medir señales fisiológicas en personas, e intentar decodificar las señales cerebrales directamente. En el momento que una persona piensa o imagina en hacer una acción hay una modulación de la actividad cerebral, en la corteza motora de esa persona. Se trata de decodificar la intención de la persona de realizar una acción.

¿Son estas señales suficientemente robustas y decodificables en tiempo real?

En tiempo real sí, porque una de las ventajas de la actividad eléctrica del cerebro es que se modula a nivel de milisegundos, en cada milisegundo tenemos una variación.

En cuanto a robustez, la calidad de la relación señal-ruido es muy baja, pero en cualquier caso tenemos un fenómeno de no estacionariedad, hay variabilidad en el tiempo. Nunca va a poder funcionar al 100% todo el tiempo, tarde o temprano va a cometer errores.

En el cerebro hay emociones, sensaciones, pensamientos conscientes o inconscientes; ¿cómo se puede filtrar una emoción?

Hay un entrenamiento, por parte de la persona y por parte de la máquina. La persona tiene que aprender a modular la actividad y la máquina tiene que aprender a encontrar cuáles son los patrones de actividad que corresponden a cada intención de la persona.

¿Somos todos iguales?

Somos todos iguales pero diferentes. La organización de nuestro cerebro en general es la misma para todos, salvo si se han sufrido traumas o malformaciones. Pero lo que estamos midiendo con la actividad eléctrica, es el resultado del mapeo sináptico de nuestro cerebro. Lo interesante es que este mapeo sí que es individual porque refleja las vivencias individuales de cada persona. Las reglas de creación y eliminación de sinapsis son sencillas. Todo es un conjunto de estímulos-respuestas, las vivencias que podamos haber tenido cada uno de nosotros a todos los niveles, las experiencias manuales en nuestra vida. Por ejemplo, no es lo mismo uno que ha tocado siempre la guitarra que uno que no ha hecho nada de música. Todo eso crea mapas sinápticos diferentes, por esos tenemos que generar decodificadores específicos.

¿Qué están investigando en el ámbito de la aplicación industrial?

Nosotros trabajamos mucho con “la señal del error”. Esta se produce por ejemplo cuando yo te digo una cosa y tú me pones cara extraña. Yo rápidamente interpreto que no entendiste algo o bien que lo que dije no fue de tu agrado. O, en este caso, cuando yo quiero que el robot haga una cosa y hace otra, porque no descodificó mi intención correctamente.

Son señales que indican que nosotros percibimos que algo fue mal en la interacción. Entonces en lo que estamos trabajando es en cómo enseñar al robot sin tener que programar, sin tener que hacer demostraciones; es decir, que el robot aprenda sencillamente a partir de nuestras señales cerebrales.

Si nosotros estamos delante del robot y ya le hemos hecho una demostración de una operación muy compleja, sabemos que van a haber errores y los robots de hoy en día están equipados con mecanismos de aprendizaje, normalmente por refuerzo, para poder mejorar con el tiempo, pero es un proceso lento. Se trata de intentar que el robot aprenda sencillamente porque lo estoy observando y no me gusta como lo está haciendo. Eso aporta una cantidad de información muy pequeñita porque solo le estoy diciendo que no está bien, directamente decodificado de mi cerebro. Con lo cual van a haber errores, pero esto es mejor que no darle ningún tipo de información.

Se nos plantea muchas veces que la máquina será en todos los ámbitos mejor que el ser humano en un futuro más o menos próximo. Entonces, ¿por qué estamos intentando mejorar las máquinas gracias a la conexión con nuestro cerebro, si al final van a ser mejores, en todos los sentidos? ¿Tiene fecha de caducidad este ámbito de investigación?

Ese es un ámbito de discusión que para mí no está cerrado, ya que, si queremos que las máquinas sean mejores que los humanos, entonces las programaremos cada vez mejor y eventualmente un día lo llegarán a ser. Pero si nosotros decimos y decidimos como sociedad, qué tipo de relación queremos establecer con las máquinas y las máquinas con nosotros… ¿ellas nos van a reemplazar o ellas nos van a permitir hacer cosas que hoy en día no somos capaces de hacer? ¿o las vamos a conseguir hacer de una forma mucho más eficaz en sincronía porque vamos a trabajar juntos?

El ámbito del neuroprótesis donde yo me muevo, lo focalizamos para reemplazar aquellas capacidades motoras que la persona no tiene. Pero es siempre la persona la que va a decir cómo y cuándo ejecutarla, por lo que la máquina está al servicio de la persona.

En el caso del coche autónomo, nos estamos poniendo de forma voluntaria al servicio de que el conductor es un simple pasajero, que no tiene intervención, pero entonces: ¿estoy dispuesto a gastarme un dinero en un super coche y ahora que tengo todas mis capacidades voy a perder el placer de poder conducir?

¿Dónde está la frontera moral-ética en dejar que las máquinas nos controlen?

No hay una frontera definida, somos nosotros como sociedad a quienes nos toca decidir cuál es ese límite. Ya que mientras estamos hablando de ayudar a personas que tienen discapacidad, todos estamos de acuerdo en que casi todo está permitido. El problema es cuando salimos de esto y nos planteamos algo como: ya que ya tiene una discapacidad, ¿por qué no darle un tercer brazo?

¿Y qué sentido tiene eso? ¿Cuál será la relación de ese tercer brazo con el cuerpo de carne y hueso?, ahí se entra en un gran debate. Son debates existenciales.  Lo mismo que cuando se escucha que los cerebros se pueden transferir al robot, imaginemos que es posible… pero atención ya que en ese momento estamos perdiendo nuestra humanidad tal como ha evolucionado durante millones de siglos. Nuestro cerebro es lo que es gracias al cuerpo que tenemos. El día en que tengamos otro cuerpo, nuestro cerebro será otra cosa y esto asumiendo que nuestro cerebro es la sede de toda voluntad, de toda conciencia y de todas las vivencias anímicas, espirituales e intelectuales.

¿Estamos delante de una revolución? ¿De qué tipo?

Nosotros hemos puesto en marcha un proyecto que se llama “Mental Work” donde uno de los objetivos es fomentar este tipo de discusiones. ¿Como creemos que va a ser esa revolución cognitiva que va a llegar? Incluso la contraponemos a la revolución industrial que hubo hace dos siglos. Lo que pretendemos es que la gente toque y experimente de una forma rudimentaria todas estas tecnologías.

Hicimos una exposición de arte y ciencia, en Lausanne (Suiza) y en San francisco, donde el visitante podía encontrar réplicas de máquinas de la revolución industrial con mecanismos de engranaje. En aquella época la persona tenía que utilizar su fuerza manual para manejar las. En la exposición, permitimos que las personas controlasen esas máquinas con una de nuestras interfaces cerebrales de una manera sencilla, porque no había mucho tiempo para entrenar. Abrimos la posibilidad a que la gente lo experimentase y pudiera sorprenderse al ver la máquina moviéndose gracias a sus comandos mentales.

Toda esta tecnología todavía no está desarrollada y hay aún muchas limitaciones. Pero, aunque queramos extrapolar y decir que, en 5, 10 o 20 años esto va a ser realidad, la cuestión que se plantea es: ahora que hemos experimentado esta revolución cognitiva, en vez de utilizar tu mano ¿tienes que utilizar tu cerebro como si estuvieses utilizando tu mano?, ¿cómo quieres es que esto funcione? ¿Tú quieres que la máquina tome siempre las decisiones por ti?, tú quieres ser siempre el responsable de las decisiones en las actuaciones de la máquina? Hay que empezar a definir estas respuestas.

¿La interface cerebral puede darse de forma inalámbrica?

Sí, ya se dispone, ya que los usuarios se tienen que desplazar de una máquina a otra.

Sin casco no sería posible, para ello necesitarías implantes. Ya que se tiene que poner en contacto el electrodo con el cuerpo, ya sea por encima de la piel, por debajo de la piel, por debajo del cráneo, o insertado en el cerebro directamente.

Se oye de la posibilidad de hackear el cerebro. ¿Es esto un riesgo real en las comunicaciones don interface cerebral?

Desde el momento que hablamos de sistemas inalámbricos para enviar información de un punto A a un punto B, se puede interferir. Un ejemplo simple y gráfico, si la persona está utilizando un exoesqueleto para controlar su propio cuerpo, yo puedo hacer como hacker que se abofetee solo.

De acuerdo que puede ser un riesgo, pero hay que ampararse en la legislación actual que garantiza que las comunicaciones sean privadas. Hay que seguir lo mismo que se aplica en este marco, ya que al final son también comunicaciones.

¿Cómo imagina la planta de producción del futuro?

Tiene que ser muy reactiva. Una de las razones por las que Europa en particular ha perdido la industria es porque mientras la producción ha sido una cosa puramente repetitiva, se ha ido trasladando a sitios donde el coste es menor. Pero ahora la queremos recuperar porque queremos flexibilizar la producción e introducir nuevos procesos. Y para eso no solo hacen falta robots muy inteligentes, conectados, sensitivos, móviles, colaborativos, etc.… debes disponer también personas que sean capaces de mostrar cuáles son las nuevas tareas a ejecutar. Las personas van a ser el factor diferencial.

Nosotros como humanos somos capaces de añadir valor en la cadena de optimización que nos permite que al final tengamos resultados que puedan satisfacer a nuestros clientes. Ahí las interfaces cerebrales tendrán también un rol importante. Eso no significa que el operario estará sentado en una silla y no se moverá, sino que podremos aumentar y evaluar no solo la cantidad de información que el operario envía sino también la que recibe e interpreta.