Amazon prepara un wearable capaz de recoñecer emocións humanas

Hoxe en día un reloxo ou unha pulseira intelixente poden saber cantos pasos dá unha persoa, os quilómetros que percorre, as calorías que queima e mesmo que tal pasou a noite ao monitorizar o sono. Pero polo xeral os dispositivos deste tipo non son capaces de comprobar se quen os porta está contento, estresado, triste ou enfadado. Hai compañías que traballan para que isto sexa posible. Amazon prepara un wearable activado por voz que pode recoñecer as emocións humanas, segundo informou Bloomberg tras revisar uns documentos internos da compañía.

Este dispositivo, que se levaría no pulso e funcionaría cunha aplicación móbil, aparece descrito nos ditos documentos como un produto de saúde e benestar. Aínda non está claro en que punto se atopa este proxecto ou se finalmente o wearable sairá ao mercado.

As máquinas capaces de detectar emocións son habituais en ciencia ficción: están presentes dende nas historias de Isaac Asimov ata en películas máis recentes como Her, Big Hero 6 ou Ex Machina. O dispositivo de Amazon descrito polo medio estadounidense contaría con micrófonos combinados cun software que pode distinguir o estado emocional do usuario a partir do son da súa voz, segundo os documentos e unha persoa familiarizada co programa. Ademais de ler as emocións, o dispositivo tamén podería aconsellar ao usuario sobre como interactuar de xeito máis efectivo cos demais.

“O que formula Amazon de detectar emocións a través da voz eu miraríao con certo escepticismo ou certa prudencia, no sentido de que poida funcionar sempre e cunha calidade moi alta, pero dende logo non é algo que non se poida facer. É algo que se está a facer e que antes ou despois ímolo ver”, afirma Roberto Font, responsable de I+D de Biometric Vox, empresa tecnolóxica española especializada en ferramentas de biometría de voz.

Esta tecnoloxía podería axudar á compañía a orientar mellor a publicidade ou as recomendacións de produtos. Unha patente estadounidense presentada en 2017 e recollida por Bloomberg describe un sistema que mediante a análise de patróns de voz é capaz de descubrir como se sente un usuario e discernir entre “alegría, anoxo, pena, tristura, medo, desgusto, aburrimento, estrés ou outros estados emocionais”. Un diagrama na solicitude de patente mostra unha muller que lle di a Alexa que ten fame. O asistente dixital, ao decatarse pola súa voz de que ten un arrefriado, pregúntalle á muller se lle gustaría unha receita de sopa de polo.

Este wearable sería, segundo o medio estadounidense, o resultado dunha colaboración entre Lab126, o grupo de desenvolvemento de hardware detrás do teléfono Amazon Fire e o altofalante intelixente Echo, e o equipo de software de voz de Alexa. O nome en clave do proxecto é Dylan e habería un programa de proba beta en marcha aínda que non está claro se inclúe un prototipo de hardware, o software de detección de emocións ou ambos os dous.

Melloras nos sistemas de recoñecemento de voz

Font explica que “actualmente a tecnoloxía da voz está a avanzar moitísimo”. E diferenza entre tres aspectos que se poden apreciar cando alguén fala: “O primeiro que percibimos é o que está a dicir, o contido, que no caso dunha máquina sería o recoñecemento de voz. Logo identificamos quen é a persoa que está a falar. Isto sería recoñecemento de falante ou biometría vocal. En terceiro lugar, hai cousas máis sutís como pode ser o recoñecemento de emocións”.

Mentres que o recoñecemento de voz e a identificación do falante están nunha etapa “madura”, o recoñecemento de emocións “está nun punto máis incipiente”. “Trátase quizais da información que está máis escondida dentro da voz. Iso fai que sexa máis difícil a nivel técnico extraer esa información descartando todo o demais”, afirma. Ademais, subliña a dificultade de adestrar a un sistema deste tipo, xa que se necesita un gran número de gravacións. E lanza a seguinte pregunta: “¿Como xeramos unha base de datos onde saibamos que emoción está a experimentar a persoa que fala cando en moitos casos é mesmo subxectivo? “.

Os avances nos sistemas de recoñecemento de emocións poden facer que un asistente se adapte ao estado de ánimo do usuario e conseguir así que “a comunicación coa máquina sexa un pouco máis humana e empática”. “Actualmente cando un home actúa cun asistente virtual, a experiencia é un pouco fría porque é moi palpable que é unha máquina con respostas predeterminadas”, conta.

Amazon trata de mellorar cada vez máis o seu asistente. Para iso, conta con miles de empregados en todo o mundo que escoitan a diario conversacións aleatorias que os usuarios manteñen nas súas casas e oficinas con Alexa, segundo adiantou Bloomberg. A gran cantidade de datos e gravacións que esta compañía recompila dos usuarios provocou que se atope no punto de mira xunto con outros xigantes tecnolóxicos.

A información sobre os clientes pode ser útil para mellorar a experiencia do usuario e recomendarlle libros, música, películas ou outros produtos en función do seu estado de ánimo. Pero que unha máquina “se meta na cabeza do usuario e trate de adiviñar o que sente” tamén leva consigo un risco e suscita dilemas éticos tal e como mostran algúns precedentes. Por exemplo, Facebook analizou datos de máis de seis millóns de adolescentes australianos e neozelandeses para determinar o seu estado de ánimo e facilitar os anunciantes información sobre os momentos nos que se sentían máis vulnerables, segundo un documento da compañía en Australia filtrado en 2017 polo xornal The Australian.

Font considera que “tratar de vender algo a alguén nun momento no que estea máis vulnerable formula dúbidas en canto a privacidade e seguridade”: “Entendo que o usuario terá que ser moi consciente de que se está a facer e o autorizado porque o feito de que intenten ler as túas emocións é ata certo punto invasivo”.

(Fonte: Retina)