vocalytics

Vocalytics è uno dei progetti che ha partecipato al Disrupt SF hackathon organizzato da TechCrunch. Il progetto nasce per studiare il linguaggio del corpo ed è pensato per tutti coloro che parlano in pubblico. Il linguaggio del corpo è una parte fondamentale del public speaking: se gestito male, la comunicazione con il pubblico risulterebbe difficoltosa o grottesca, rendendo complesso il collegamento tra chi parla e chi ascolta e osserva.

Gli ideatori del progetto sono Paritosh Gupta e Danish Dhamani che hanno programmato l'intelligenza artificiale, il cuore di questo software. Da sempre, i relatori vengono affiancati ad un coach umano che, dopo aver registrato una sessione di prova, mostra gli errori e le tecniche da utilizzare nelle diverse situazioni. Proprio per questo, il software utilizza l'apprendimento automatico per analizzare i video e poter dare un feedback sui movimenti effettuati.

vocalytics

Per il progetto sono stati utilizzati alcuni dataset della Microsoft che lavoreranno con gli algoritmi dei due ragazzi. Dhamani ha affermato, in un'intervista effettuata proprio da TechCrunch, che questi dataset vengono utilizzati per la prima volta per questo tipo di applicazione. Oltre a tutto ciò, il team utilizza ben due strumenti appartenenti a Facebook: il primo è un framework denominato the Caffe deep learning, mentre il secondo è una libreria chiamata React.js.

Per ora potete stare tranquilli, il software non sostituirà i coach umani, anche perchè non è ancora in grado di un pensiero critico e di ragionare autonomamente: tutti i suoi consigli si basano incrociando un database contenente le posizioni considerate corrette, con quelle rilevate durante la registrazione video. Di fatto, però, stiamo scoprendo nuovi utilizzi e orizzonti delle intelligenze artificiali.