Mostrando entradas con la etiqueta computadora. Mostrar todas las entradas
Mostrando entradas con la etiqueta computadora. Mostrar todas las entradas

viernes, 3 de abril de 2015

Una prótesis tan natural como la extremidad que ha reemplazado

Las prótesis, robots y otros aparatos para personas con distintas discapacidades ya están integrándose fuertemente con el cerebro del paciente.



Por Glenys Álvarez

En el futuro, la tecnología desea integrarse y trabajar contigo. Es lo que hemos estado observando durante años, los ingenieros enseñan a las computadoras a seguir las órdenes del cerebro del paciente a través de una interfaz, y cada vez se entienden más. Hemos visto personas comunicarse de una oficina a otra utilizando sólo el cerebro y una computadora, las prótesis son más eficientes porque han sido sintonizadas bajo el mando de las neuronas del paciente y hasta las sillas de ruedas estarán bajo el mando neuronal del paciente.

El objetivo es que se sienta natural, que la mano cierre obedeciendo las órdenes directas del cerebro, como una mano normal, no porque existe un botón que lo haga, sino porque ya está conectada a los nervios de la persona que la requiere. La meta final es que sean tan cómodas como las originales. Estos dispositivos están modelados para decodificar las señales del cerebro y actuar acorde, conectados a la médula espinal permiten que exista comunicación directa entre la persona y la tecnología para que funcione como un motor natural, recibiendo, entendiendo y aplicando las órdenes del cerebro.

En esta ocasión, por ejemplo, el investigador José del R. Millán, del Instituto Federal Suizo de Tecnología en Lausanne, presentó esta semana un nuevo trabajo en la conferencia de la Sociedad de Neurociencia Cognitiva (SCN) en San Francisco, asegurando que las nuevas neuroprótesis permiten realizar tareas complejas. Millán, quien comenzó su carrera diseñando robots autónomos que pueden aprender de sus propias experiencias, ahora se dedica a que estos robots ayuden a las personas con discapacidades.

El objetivo es que lo hagan de una forma muy natural, directa e intuitiva. ¿Y qué más directo que decodificar la intención del usuario de sus propias señales cerebrales?”, pregunta.

En medio del cerebro del usuario y el dispositivo se encuentra la interfaz. Es lo que se encarga de leer y decodificar las señales del paciente, en otras palabras, al pensar, 'deseo cerrar mi mano en un puño', la interfaz lo lee y lo decodifica para que la computadora lo aplique, así, el pensamiento pasa del cerebro, a la interfaz y a la prótesis. Si nos ponemos a pensar en todas las cosas que es capaz de hacer nuestro cerebro, recordamos claramente lo dificultoso que una tarea como esta puede ser. Podemos hacer actividades varias, muchas de forma automática, mientras nuestro cerebro se concentra en otras, y es precisamente donde los investigadores quieren llegar.

Las prótesis y los robots que nuestras interfaces controlan son inteligentes, ya que pueden interpretar muchos detalles de bajo nivel que no necesariamente están codificados en las órdenes mentales, también trabajan de forma autónoma, esta función refleja cómo nuestras áreas profundas del cerebro, la médula espinal y el sistema musculoesquelético, trabajan juntos en muchas tareas rutinarias, lo que permite a nuestros cuerpos hacer tareas sencillas, mientras centramos nuestra atención en otra parte”, aseguró.

En la imagen, por ejemplo, vemos una silla de ruedas que el equipo de Millán elaboró el año pasado. Esta silla de ruedas está controlada completamente por el cerebro del usuario, quien puede manejarla por un largo periodo de tiempo debido al sistema de control compartido que reduce el trabajo cognitivo que debe poner el usuario para controlarla. Estas sillas de ruedas se encuentran ahora en su fase de evaluación.

Los investigadores se encuentran ahora ante tres retos: el primero es encontrar nuevas interfaces físicas, además del EEG, que funcionen de forma permanente y por largos períodos de tiempo, el segundo es alcanzar una mejoría en la retroalimentación sensorial y, finalmente, tenemos el foco de la neurociencia cognitiva hoy, decodificar e integrar la información en un circuito entre la prótesis y los procesos perceptivos del paciente, incluyendo atender los errores que cometan las prótesis y la anticipación en puntos críticos y decisivos.

Las neuroprótesis futuras, como robots y exoesqueletos controlados a través de interfaces inteligentes, estarán fuertemente acopladas con el usuario de tal manera que el sistema resultante podrá sustituir y restaurar las funciones de las extremidades deterioradas porque será controlado por las mismas señales neuronales que controlan sus contrapartes naturales. Esto ya no es ciencia ficción”, concluyó.


Millán presentó su nuevo trabajo aquí: https://www.cogneurosociety.org/annual-meeting/upcoming-meeting/

Crédito de imagen: José del R. Millán