Siri nagrywa kłótnie, rozmowy z lekarzem, a nawet seks. A słuchają tego . . .

Data: 28.07.2019 11:08

Autor: ziemianin

ithardware.pl

#wiadomosci #codziennaprasowka #ciekawostki #technologia #siri #apple #google #amazon #skandal #podsluch

"Odnotowano niezliczone przypadki nagrań z prywatnymi dyskusjami między lekarzami i pacjentami, transakcjami biznesowymi, pozornie przestępczymi transakcjami, spotkaniami seksualnymi i tak dalej. Nagraniom tym towarzyszą dane użytkownika pokazujące lokalizację, dane kontaktowe i dane aplikacji"

Siri nagrywa kłótnie, rozmowy z lekarzem, a nawet seks. A słuchają tego . . .

Najpierw Amazon, potem Google, a teraz potwierdziło się, że również Apple i ich urządzenia nie tylko słuchają i nagrywają użytkowników, ale kompletnie obcy mogą przeglądać te nagrania. Dzięki Siri, podwykonawcy Apple rutynowo wyłapują intymne fragmenty prywatnego życia użytkowników, wiedzą jakie przyjmują leki, kiedy mają wizyty lekarskie i wysłuchują odgłosów seksu, a wszystko to w wchodzi w zakres obowiązków dotyczących kontroli jakości. W ramach działań mających na celu ulepszenie asystenta głosowego "mała część wywołań Siri jest analizowana w celu poprawy Siri i rozpoznawania mowy" – powiedziało Apple. Wiąże się to z wysłaniem nagrań bez identyfikatorów Apple ID do międzynarodowego zespołu wykonawców, aby ocenić interakcje w oparciu o odpowiedź Siri, jak również i inne czynniki. Firma wyjaśniła ponadto, że te nagrania stanowią mniej niż 1 procent dziennych aktywacji Siri i że większość trwa tylko kilka sekund.

Tak jednak wcale nie jest, a przynajmniej według jednego z podwykonawców, do których dotarł Guardian. Wykonawca wyjaśnił, że ponieważ procedury kontroli jakości nie eliminują przypadków, w których użytkownik nieumyślnie uruchomił Siri, kontrahenci podsłuchują również te rozmowy, których użytkownicy nigdy nie chcieli nagrywać. Dodatkowo szczegóły, które mogą potencjalnie zidentyfikować użytkownika, rzekomo towarzyszą nagraniu, aby wykonawcy mogli sprawdzić, czy wywołanie zostało poprawnie przetworzone."Odnotowano niezliczone przypadki nagrań z prywatnymi dyskusjami między lekarzami i pacjentami, transakcjami biznesowymi, pozornie przestępczymi transakcjami, spotkaniami seksualnymi i tak dalej. Nagraniom tym towarzyszą dane użytkownika pokazujące lokalizację, dane kontaktowe i dane aplikacji" – powiedział informator.

W dodatku przerażająco łatwo jest aktywować Siri przez przypadek. Wystarczy powiedzieć coś zbliżonego do "Hej Siri", o czym dowiedział się w ubiegłym roku brytyjski sekretarz obrony Gavin Williamson, kiedy asystent aktywował się gdy przemawiał on o Syrii. Według podwykonawcy nawet dźwięk zamka błyskawicznego może nawet aktywować Siri. Spośród wszystkich urządzeń to smartwatch Apple Watch i głośnik HomePod najczęściej odbierają przypadkowe aktywacje Siri, a nagrania mogą trwać nawet 30 sekund. Chociaż Apple powiedziało Guardianowi, że informacje zebrane od Siri nie są powiązane z innymi danymi użytkownika, wykonawca opowiedział inną historię: "Nie jest trudno zidentyfikować osobę, której słuchasz, zwłaszcza w przypadku przypadkowych wyzwalaczy – adresów, nazw itp." Pracownikom powiedziano, aby zgłaszali przypadkowe aktywacje jako problemy techniczne, ale nie było wskazówek, co robić, jeśli te nagrania przechwyciły poufne informacje.