Też tak macie, że przechodząc zimą koło sklepu ze sprzętem narciarskim i widząc na wystawie gogle, odruchowo chcecie poprawić błąd na „Google”? Ja łapię się na tym regularnie, a może być tylko gorzej.
Nie oglądałem keynote’a z Google I/O, tym niemniej bardzo dokładnie zapoznałem się z pojawiającymi się wieczorem w różnych miejscach Sieci materiałami. Choć tematów było przynajmniej kilka, mi najbardziej rzuciła się w oczy kwestia technologii ubieralnych. I mam trochę mieszane uczucia. Bo z jednej strony już przyzwyczaiłem się do mojego SmartBanda od Sony i dziwnie się czuję bez opaski na nadgarstku, to wczorajsze nowości od Google trochę mnie przeraziły. No bo jednak czymś innym jest urządzenie, gromadzące dane wewnątrz swojej dedykowanej aplikacji, a inaczej patrzymy na choćby zegarek będący de facto rozszerzeniem funkcjonalności systemu operacyjnego naszego telefonu! Kolejnym czujnikiem, zbierającym wiadomości, które następnie lądują u Wielkiego Brata w Mountain View.
Czy te nowe funkcjonalności ułatwią nam życie? Pewnie trochę tak – przecież znakomita większość z nas zawsze gdzieś się spieszy i fakt, że ucząc się naszych zachowań sprzęt będzie coraz częściej „myślał” za nas, oszczędzi nam kilka minut dziennie. Ja jednak, będąc świadom kolosalnej ilości Big Data przetwarzanych przez firmy na całym świecie (no bo niby skąd wiedzą o 93 mln robionych codziennie selfie?) coraz częściej czuję się jak obserwoawny z góry chomik, biegający w wielkim kółku (pamiętacie scenę z końcówki „Kingsajzu”?). Zastanawiam się, z jaką dokładnością Google może profilować swoich użytkowników i jak blisko jesteśmy rzeczywistości z regularnie przywoływanego przeze mnie na tych łamach „Raportu Mniejszości”, gdy tworząc odpowiedniego use-case’a będziemy w stanie na podstawie Googlowych Big Data wyestymować np. prawdopodobieństwo popełnienia przez kogoś przestępstwa? A kiedy (nie „jeśli”) już tak się stanie, to czy cyfrowa Temida będzie mniej, czy bardziej ślepa od swojej starej analogowej siostry?