El ordenador que traduce nuestro lenguaje corporal

El ordenador que traduce nuestro lenguaje corporal

En ocasiones el lenguaje no verbal de un paciente revela mucho más de lo que reflejan literalmente sus palabras. Una nueva tecnología desarrollada por los ingenieros del Instituto de Robótica de la Universidad Carnegie Mellon de Pittsburgh (EE.UU.) permite, por primera vez, que un ordenador comprenda y lea el lenguaje corporal de un grupo de personas en tiempo real y pueda interpretar, incluso, la posición de cada dedo de la mano.

Un total de 500 cámaras de vídeo en una cúpula de dos pisos han servido para perfeccionar un sistema al que finalmente le basta una sola cámara y un ordenador portátil para detectar y analizar las poses de las personas cuando interactúan entre ellos. El hallazgo se encamina también a mejorar la comunicación entre los seres humanos y las máquinas. En un terreno práctico, enfocado por ejemplo a la automoción, las cámaras pueden interpretar -sólo por el lenguaje de su cuerpo en movimiento- que el peatón pretende cruzar una calle y corre el riesgo de ser atropellado. Pero en el ámbito sanitario, el trabajo llevado a cabo por el equipo del profesor Yaser Sheikh puede ayudar al diagnóstico de una gran variedad de condiciones como el autismo, la dislexia o la depresión entre otras. En el equipo también figura un investigador español, Ginés Hidalgo Martínez.

El seguimiento de múltiples individuos en tiempo real, sobre todo en situaciones de interacción social en grupo, resulta muy compleja, ya que la máquina debe controlar de forma simultánea las caras, los brazos, las manos o las piernas y asociarlos con cada persona y era algo que la tecnología actual sólo podía conseguir con un único individuo.

No obstante, hasta que este tipo de soluciones informáticas se generalicen –si es que eso llega a ocurrir algún día, para el profesional sanitario resulta de suma utilidad saber interpretar el lenguaje gestual y dominar la comunicación no verbal. Como explica, Ovidio Céspedes, profesor de la Escuela Internacional de Ciencias de la Salud, “Cuando tenemos un paciente delante, atendiendo a muchos factores que podemos captar a través de los sentidos podemos complementar al más potente de todos: la mirada. El denominado ojo clínico o golpe de ojo permite percibir y valorar la tristeza, la excitación nerviosa, la exaltación, la presencia de drogas, el desafío, el miedo, la ternura… Gracias a los avances en robótica podemos interpretar todo eso en un instante. Y es algo que puede aplicarse, no sólo a la relación entre el paciente y el profesional sanitario, sino a los mismo profesionales para valorar, por ejemplo, el grado de asertividad, empatía o distancia entre las personas que trabajan en grupos inter y multidisciplinares. Se trata de un avance fantástico para interpretar el lenguaje no verbal”.

David Ruipérez