Autore: Redazione
05/12/2016

Per combattere le bufale, Facebook pensa all’intelligenza artificiale

Nel corso di un evento la società ha detto che la tecnologia potrebbe aiutare a combattere il problema. È un po’ meno chiaro in che modo

Per combattere le bufale, Facebook pensa all’intelligenza artificiale

Per far fronte al problema delle notizie false, dopo le polemiche scaturite in America in occasione delle elezioni presidenziali, Facebook ha deciso di affidarsi all’intelligenza artificiale. Yann LeCun, director of artificial intelligence dell’azienda di Menlo Park, ha detto nel corso di un incontro con i giornalisti che la tecnologia potrebbe essere utilizzata per aiutare a sradicare notizie false o rilevare la violenza all’interno dei video live, filtrando i contenuti del sito. Un problema reale In campo pubblicitario, Facebook ha annunciato circa tre settimane fa di aver escluso da Audience Network i siti che promuovono la diffusione di bufale, tagliando loro la possibilità di generare ricavi pubblicitari utilizzando i servizi aziendali. Ma il problema delle bufale rimane e non è semplice da gestire, considerata la quantità di post immessi sul social network. E la questione non è semplice perché i confini tra censura e libertà di espressione sono diventati quasi impercettibili. La domanda è che fino a che punto può arrivare la tecnologia e quando deve entrare in campo l’uomo? L’intelligenza artificiale LeCun ha poi spiegato come l’intelligenza artificiale sia ormai integrata in tutte le operazioni aziendali, dall’analisi dell’esperienza degli utenti sul newsfeed fino al monitoraggio della propaganda terrorista. Tuttavia non è chiaro come Facebook intenda utilizzare l’intelligenza artificiale per combattere la falsa formazione. Allo stato attuale il social dispone di uno strumento in grado di riconoscere il clickbait, e di punire questi post dandogli meno visibilità, ma riconoscere il vero dal falso è un affare serio. Secondo Gizmodo, Facebook avrebbe già in mano una simile tecnologia ma sarebbe reticente a usarlo per le implicazioni che avrebbe, soprattutto in ambito politico. Facebook ha smentito questa indiscrezione. Un portavoce ha spiegato al Wall Street Journal che, in coerenza con la propria strategia, la società testa delle feature prima di eventualmente lanciarle. Zuckerberg prende sul serio il problema Dopo aver inizialmente minimizzato la questione, Mark Zuckerberg è dovuto tornare sui suoi passi affermando di aver avviato le azioni per risolvere il problema, andando in una direzione di maggiore trasparenza. Sarà, infatti più facile segnalare quali notizie sono false Zuckerberg ha indicato come la cosa più importante sia migliorare la capacità di classificazione della disinformazione, sviluppando sistemi in grado di rilevare cosa è vero e cosa no.