L'intelligenza artificiale predittiva di AirBnb

Il sito di affitto alloggi afferma che la sua intelligenza artificiale può prevedere se gli ospiti sono psicopatici o no

Per proteggere i suoi host, Airbnb ha iniziato a utilizzare uno strumento basato sull'intelligenza artificiale per scansionare la rete alla ricerca di indizi che gli permettano di capire se un cliente è affidabile o meno.

Secondo i documenti di brevetto, lo strumento tiene conto di tutto: dai casellari giudiziari di un utente ai post sui social media, per valutare la probabilità di esibire tratti «inaffidabili» che includono il narcisismo, il machiavellismo e persino la psicopatia.

Lo strumento di controllo è opera di Trooly, una startup Airbnb acquisita nel 2017.

Quando Standard Evening ha chiesto ad Airbnb di commentare in che misura utilizza lo strumento, l'azienda ha minimizzato.

Eppure, sul suo sito, Airbnb rivela l'uso dell'intelligenza artificiale per valutare i potenziali ospiti: «Ogni prenotazione Airbnb viene valutata in termini di rischio prima che sia confermata. Usiamo strumenti analitici predittivi e di machine learning per valutare in tempo reale migliaia di fattori che ci aiutano a individuare attività sospette prima che accadano e a investigare su di esse».

È difficile dire se un'intelligenza artificiale può effettivamente prevedere, solo dalle informazioni online, se un ospite è uno psicopatico o ha altre caratteristiche che un host preferirebbe non far entrare in casa sua.

Di certo, l'idea di eliminare le personalità sbagliate prima che combinino danni vari agli appartamenti a cui AirBnb gli dà accesso è davvero molto interessante, sia per l'azienda che per cui utilizza i suoi servizi.

 

 

.

ISCRIVITI ALLA NOSTRA NEWSLETTER