Za účelem ochrany svých hostitelů chce Airbnb využívat technologii, řízenou umělou inteligencí, která odhalí z internetových zdrojů stopy, podle kterých by návštěvník nemusel být spolehlivým hostem.
Systém bere v úvahu vše od rejstříku trestů, až po příspěvky na sociálních sítích, obsahující klíčová slova, obrázky a videa spojená s drogami, alkoholem, nenávistnými webovými stránkami. Následně vyhodnocuje nedůvěryhodnost daného uživatele, včetně osobnostních rysů, jako bezohlednost, nebo dokonce psychopatie.
Získaná data však pocházejí z opravdu širokého spektra - systém získává rovněž informace o sociálních vazbách uživatele, jeho zaměstnanosti, či vzdělání.
Za vývojem technologie stojí Trooly, startup Airbnb, získaný v roce 2017. Airbnb se zároveň odmítlo vyjadřovat k rozsahu, v jakém systém využívá. Společnost ovšem prohlásila, že jej aplikuje pouze k lustraci potenciálních klientů. "Každá rezervace je před samotným potvrzením hodnocena. Používáme prediktivní analýzu a strojové učení k okamžitému vyhodnocení stovek údajů, které nám pomáhají odhalit podezřelou aktivitu dříve, než k ní dojde."
Je obtížné říci, zda umělá inteligence dokáže skutečně předpovědět, zda je daný člověk psychopat, nebo alespoň někdo, koho byste ve svém domě rozhodně nechtěli. Společnost Airbnb však problémovým hostům čelí dlouhodobě.
Zdroj: Kristin Houser, The Byte, Mark Blunden, Evening Standard


Lukáš Kekrt
Populizátor vědy, ultramaratonec a naivní tramp, mikrobiologie, Karlova Univerzita
sledovat :
Vstup do diskuze