Translate

18 outubro 2013

Análise de sentimentos pela voz

Este é um sistema de detecção usado para analisar, não o significado das palavras das pessoas, mas as entonação de sua voz: "Conflito entre o desejo e o autocontrole. Solidão, fadiga, frustração emocional", dizia o teletexto acima da cabeça de Jobs enquanto ele falava. Instantes mais tarde, sugeriu outro diagnóstico: "Insistência, teimosia. Possivelmente egoísmo infantil". E a conclusão: "Tristeza mesclada a felicidade. Possivelmente nostalgia".

Os seres humanos em geral sentem-se desconfiados quando seus interlocutores, por ansiedade ou sarcasmo, pronunciam frases em voz alta que contradizem seus sentimentos íntimos. Agora, novas técnicas de análise de voz computadorizada prometem ajudar as máquinas a identificar quando frases que soam como jocosas como a de Jobs trazem certa frustração e até dor. Embora o software ainda se encontre em sua fase inicial, desenvolvedoras como a Beyond Verbal, uma startup de Tel-Aviv, oferecem essa tecnologia incipiente como uma abordagem mais profunda para os call centers e outros serviços ao cliente que procuram ler e responder às emoções dos consumidores em tempo real. A companhia afirma que seu software pode detectar 400 variações de humor diferentes.

"Não é o que você diz, mas como diz", explica Dan Emodi, vice-presidente de marketing da Beyond Verbal. "Ouvindo estes diferentes padrões, podemos fazer com que as máquinas compreendam pela primeira vez o lado emocional das nossas mensagens."

Os consumidores, no entanto, podem se assustar com a ideia de que um operador estranho vai invadir sua "psique". Segundo analistas do setor, as companhias que adotam a detecção da emoção teriam de ser transparentes com os consumidores, alertando-os sobre a utilização e a análise dos seus dados, além da informação que estamos acostumados a ouvir: "Para a sua segurança esta ligação poderá ser gravada". "A questão é de privacidade, você está gravando a conversa do consumidor", diz Donna Fluss, presidente da DMG Consulting, empresa que faz pesquisa de mercado focando o setor de call centers.

Riscos. "Tenho a impressão de que o maior risco desta tecnologia não está no fato de ela violar a privacidade das pessoas, mas de as companhias acreditarem nela e a usarem para fazer julgamentos sobre clientes ou empregados em potencial", observa George Leowenstein, professor de psicologia na Carnegie Mellon University. "Ela pode acabar sendo usada para tomar decisões arbitrárias e até mesmo discriminatórias."


New York Times - Natasha Singer - publicado Estado de S Paulo, 15 de out de 2013 - B13

Nenhum comentário:

Postar um comentário