Il commissario all’informazione mette in guardia le aziende sulle tecnologie di “analisi emotiva” | Biometrica

Il commissario all’Informazione ha avvertito le aziende di stare alla larga dalle tecnologie di “analisi emotiva” o rischiare multe, a causa della natura “pseudoscientifica” del campo.

È la prima volta che l’autorità di regolamentazione ha emesso un avviso generale sull’inefficacia di una nuova tecnologia, ha affermato Stephen Bonner, il vice commissario, ma è giustificato dal danno che potrebbe essere causato se le aziende prendessero decisioni significative sulla base di dati privi di significato.

“C’è molto investimento e impegno intorno ai tentativi biometrici di rilevare le emozioni”, ha detto. Tali tecnologie tentano di dedurre informazioni sugli stati mentali utilizzando dati come la lucentezza della pelle di qualcuno o fugaci “micro espressioni” sui loro volti.

“Purtroppo, queste tecnologie non sembrano essere supportate dalla scienza”, ha detto Bonner. “Questo è abbastanza preoccupante, perché siamo a conoscenza di alcune organizzazioni che esaminano queste tecnologie come possibili modi per prendere decisioni piuttosto importanti: per identificare se le persone potrebbero essere truffatori o se i candidati al lavoro sono degni di ottenere quel ruolo. E non sembra avere alcun senso che funzionino”.

Il semplice utilizzo della tecnologia di analisi emotiva non è un problema di per sé, ha affermato Bonner, ma trattarlo come qualcosa di più dell’intrattenimento lo è. “Ci sono un sacco di usi che vanno bene, casi delicati… se hai una festa di Halloween e vuoi misurare chi è il più spaventato alla festa, questa è una tecnologia interessante e divertente. È un costoso generatore di numeri casuali, ma può comunque essere divertente.

“Ma se stai usando questo per prendere decisioni importanti sulle persone, per decidere se hanno diritto a un’opportunità, o a qualche tipo di beneficio, o per selezionare chi riceve un livello di danno o indagine, uno di quei tipi di meccanismi … Presteremo molta attenzione alle organizzazioni che lo fanno. Quello che stiamo chiamando qui è molto più fondamentale di una questione di protezione dei dati. Il fatto che potrebbero anche violare i diritti delle persone e infrangere le nostre leggi è certamente il motivo per cui prestiamo loro attenzione, ma semplicemente non funzionano.

“C’è una serie di modi in cui gli scienziati vicini a questo lo respingono. Penso che abbiamo sentito “hokum”, abbiamo sentito “mezzo cotto”, abbiamo sentito “scienza falsa”. È una possibilità allettante: se potessimo vedere nelle teste degli altri. Ma quando le persone fanno affermazioni straordinarie con poche o nessuna prova, possiamo richiamare l’attenzione su questo”.

Il tentativo di sviluppo di “IA emotiva” è uno dei quattro problemi che l’ICO ha identificato in uno studio sul futuro delle tecnologie biometriche. Alcuni sono semplici questioni di regolamentazione, con le aziende che sviluppano tecnologie simili che richiedono maggiore chiarezza sulle regole di protezione dei dati.

Ma altri sono più fondamentali: il regolatore ha avvertito che è difficile applicare la legge sulla protezione dei dati quando tecnologie come il tracciamento dello sguardo o il riconoscimento delle impronte digitali “potrebbero essere implementate da una telecamera a distanza per raccogliere dati verificabili su una persona senza contatto fisico con alcun sistema richiesto”. Raccogliere il consenso, diciamo, di ogni singolo passeggero che passa per una stazione, sarebbe quasi impossibile.

Nella primavera del 2023, l’autorità di regolamentazione pubblicherà una guida su come utilizzare le tecnologie biometriche, incluso il riconoscimento facciale, delle impronte digitali e della voce. L’area è particolarmente sensibile, poiché “i dati biometrici sono unici per un individuo ed è difficile o impossibile modificarli in caso di smarrimento, furto o uso improprio”.

Leave a Comment