Airbnb este una dintre cele mai utilizate opţiuni pentru cazare pentru cei care călătoresc în vacanţe sau cu munca, deşi modul în care funcţionează aplicaţia pentru cei care se află în continuarea unei cazări, modul în care clienţii sunt aleşi de către gazde, este relativ necunscut publicului larg. Una dintre „procedurile” pe care utilizatorii nu le cunosc include estimarea pericolului pe care un potenţial client îl poate ridica pe baza activităţii online a acestuia, notează Futurism.
Compania care deţine şi gestionează aplicaţia a depus un patent pentru un program de inteligenţă artificială care permite identificarea trăsăturilor de caracter nedezirabile social care ar face dintr-un client un pericol pentru gazdă. Acest algoritm a fost dezvoltat de către Trooly, un start up pe care Airbnb l-a cumpărat în anul 2017, şi „scanează” internetul după informaţii precum cazier sau chiar activitatea pe reţelele de socializare pentru a evalua riscurile.
Site-ul companiei informează în legătură cu folosirea acestui program de inteligenţă artificială. „Fiecare rezervare Airbnb este analizată pentru risc înainte de confirmarea acesteia. Folosim analize predictive şi învăţare automată pentru a evalua instantaneu sute de informaţii care ne ajută să semnalizăm şi să investigăm activitatea suspectă înainte de a se întâmpla”.
Totuşi, în prezent, este greu de stabilit în ce măsură o persoană poate reprezenta o problemă pentru gazde pornind doar de la actvitatea acesteia în mediul online. Totuşi, după cum arată poveştile de pe diferite reţele de socializare, Airbnb se confruntă adesea cu clienţi care distrug locuinţele în care se cazează, astfel încât nu este greu de înţeles de ce ar investi într-un astfel de algoritm.
Citeşte şi:
Inteligenţa artificială poate determina cu acurateţe orientarea sexuală a unei persoane
Tehnologia ”care poate detecta emoţii”: cât de nocivă este de fapt?
Viseaza masinile oi electronice?