Tempi duri per l’intelligenza artificiale: dopo gli errori del sistema di guida semi-autonoma di Tesla, altri due test condotti nelle ultime settimane accendono i riflettori sull’effettiva affidabilità dei software che replicano i meccanismi di funzionamento del cervello umano.
Il Grande Fratello? Non ti vede. Il primo è stato condotto dalla Città di New York, con l’obiettivo di garantire una maggiore sicurezza ai propri abitanti: l’amministrazione ha installato un sistema di riconoscimento facciale sul Robert Kennedy Bridge, una delle principali vie di accesso alla metropoli.
Secondo quanto pubblicato qualche settimana fa dal Wall Street Journal il sistema sarebbe un completo fallimento: nei primi mesi dalla sua accensione non avrebbe riconosciuto con livelli di affidabilità accettabile nemmeno una persona.
Troppo presto. Il quotidiano sarebbe entrato in possesso di una mail indirizzata dall’MTA, l’azienda dei trasporti di New York, a uno degli amministratori della città.
Nello stesso documento, l’MTA si domanda anche, visti i pessimi risultati del test, che senso abbia la richiesta del comune di estendere il sistema di sorveglianza ad altre zone della città.
«Questa notizia non fa che confermare le preoccupazioni su questa tecnologia, invasiva e ancora immatura», commenta dalle pagine di Futurism Daniel Schwarz, esperto di tecnologia e privacy presso la New York Civil Liberties Union.
AI rimandata in matematica. E pochi giorni fa anche l’intelligenza artificiale di Google ha rimediato una sonora insufficienza, questa volta proprio sui banchi di scuola.
Un team di ricercatori di Big G e della Cornell University ha infatti proposto a diversi sistemi di intelligenza artificiale messi a punto dalla stessa Google, un test di matematica normalmente somministrato a studenti di 16 anni dei college del Regno Unito.
Il software si è meritato una grave insufficienza, totalizzando appena 14 punti su 40 e cadendo su problemi tutto sommato banali.
Prof, non ho capito. A mettere in crisi le migliori AI di Google sarebbe stata la modalità di presentazione dei test: il linguaggio, molto specifico, ricco di simboli matematici, formule ed equazioni, è risultato praticamente incomprensibile per il software, che è stato programmato per leggere grandi quantità di dati e trovare al loro interno schemi ricorrenti.
Il cervello digitale non sarebbe insomma riuscito a tradurre correttamente in processi matematici il linguaggio naturale utilizzato nella formulazione dei quesiti.
Insomma, se alla prossima sessione di esami pensate di farvi aiutare dall’intelligenza artificiale, pensateci bene: tutto sommato è meglio studiare e, al limite, cercare di tenersi buono il primo o la prima della classe…