Por: Redacción/

En México existen más de 650 mil personas con discapacidad auditiva, de las cuales 30 por ciento no sabe leer ni escribir, de ahí que un grupo de estudiantes del Instituto Politécnico Nacional (IPN), preocupados por la integración social de este sector poblacional desarrolló un sistema computacional que facilita la comunicación entre el médico y un paciente sordo.

El prototipo “En-seña”, creado por Kevin Trejo García y Brenda Mirel Avalos Reyes de la Escuela Superior de Cómputo (Escom), permite al especialista médico conocer y ejecutar ciertas señas con las que pueda identificar la sintomatología del paciente.

Es un sistema, que a diferencia de los clásicos videos o tutoriales para aprender la Lengua de Señas Mexicana (LSM), es capaz de retroalimentar al usuario indicándole si está ejecutando bien las señas o corregirlo si es necesario.

La herramienta computacional cuenta con 14 palabras (señas) procesadas que describen los síntomas del enfermo, estas son: tos, cansancio, fatiga, comezón, diarrea, dolor, erupciones, hinchazón, estornudos, vomito, gases, irritabilidad, náuseas y sed.

“En-seña” se compone de un sensor equipado con tres cámaras infrarrojas que detectan la mano del doctor y procesa esa imagen para que se vea en la pantalla principal, el usuario deberá hacer las señas de los síntomas para ver si el paciente los está experimentando o no y a partir de esto definir su estado de salud.

De acuerdo con los estudiantes, es el único programa en México que ofrece retroalimentación con el usuario, lo que permite asegurarse de preguntar al paciente lo que realmente desea, ya que en la LSM muchas señas son similares y esto complica que un especialista conozca bien la sintomatología del paciente y emita el diagnóstico correcto.

Este proyecto fue dirigido por los especialistas de la Escom Joel Omar Juárez Gambino y Consuelo Varinia García Mendoza.