Este software analiza cuánta atención se le pone a un video de manera visual, cognitiva y auditiva

La mexicana Elizabeth Torres Zafra se encuentra en el Mirai Innovation Research Institute de Osaka, Japón, participando en el desarrollo de un software para medir las bioseñales aplicadas al marketing y a la educación.

El proyecto de la alumna del Tec campus San Luis Potosí se llama MiraSense Lab, un programa informático que procesa señales del cuerpo para analizar videos utilizados en educación o mercadotecnia para descubrir el impacto emocional en los espectadores.

Recién transferida al Tec de Monterrey campus Querétaro, la estudiante de la carrera de Ingeniero en Innovación y Desarrollo del 4to. semestre fue aceptada por el doctor Christian Peñaloza en el programa “Emerging Future Technology Training Program” (EmFuTech).

“Junto con mi compañero Antonio Carvajal, trabajamos en el área de neurociencia y con tecnologías emergentes”, agrega Elizabeth.

Este programa consiste en entrenamiento de dos semanas intensivas con seminarios y workshops técnicos, seguido de la asignación del proyecto y ejecución durante tres meses.

El Dr. Peñaloza es el director general de Mirai Innovation Research Institute, el cual abre su convocatoria dos veces al año para participar en programa de entrenamiento EmFuTech.

“Este programa está diseñado para que jóvenes vengan a Japón a aprender sobre las tecnologías emergentes, participen en proyectos de alto impacto en colaboración con empresas y universidades japonesas, y obtengan una gran experiencia profesional y cultural” señala el Dr. Peñaloza.

“En este proyecto, vamos más allá de los métodos de mercadotecnia tradicionales. Esto, utilizando tecnología emergente para generar un mejor impacto”, dice el Dr. Peñaloza.

¿En qué consiste el trabajo?

Cuando llega el usuario, se sienta frente a un monitor, se hace una calibración con una cámara que rastrea la mirada y se le coloca el casco AURA.

"Estos consisten en varios sensores que se colocan en la cabeza de la persona para monitorear sus señales de cerebrales", explica Elizabeth.

Consecutivamente, se selecciona qué videos se quieren ver, por ejemplo una videoclase o un anuncio publicitario.

Cuando el usuario termina de ver los videos, el software automáticamente analiza la data neural y de rastreo ocular, y crea un reporte detallando cuánto se enganchó el usuario durante el video de manera cognitiva, auditiva y visual.

Esta información también se puede visualizar en el video en el cual se marcan las regiones donde el usuario tuvo más atención o interés.

“Hemos cerrado pruebas con varias empresas a manera que les permitan ver los intereses y respuestas de sus colaboradores”, enfatiza la alumna.

Actualmente el software ya está listo en etapa de experimentación; la siguiente idea es seguir probando el programa a empresas privadas.

Fuente: tec.mx

Pin It

Comentarios potenciados por CComment