#roboty - Orientować się jak człowiek

Data: 26.07.2020 16:17

Autor: ziemianin

youtube.com

#aktualnosci #codziennaprasowka #informacje #wiadomosci #3D #3DDynamicSceneGraphs #algorytm #Antoni Rosinol #Kimera #Luca Carlone #MIT #orientacjawprzestrzeni #uczenie głębokie #uczeniemaszynowe #wojsko

Maszynowe algorytmy mogą analizować gigantyczne zbiory danych, którym nie daliby rady ludzie. Ale nie wszystko sprowadza się do prostej analizy dwuwymiarowych danych

#roboty – Orientować się jak człowiek

Jeśli chodzi o wyławianie wzorców w morzu danych, algorytmy uczenia maszynowego nie mają sobie równych. Rozpoznają twarze na zdjęciu, obiekty w otoczeniu. Ale nic z tego nie rozumieją. Nic nie wiedzą o otaczającym je świecie.

To szczególny problem przy konstruowaniu robotów, które mają pomagać ludziom na co dzień. Jeśli chcemy, żeby robot przyniósł nam filiżankę orzeźwiającego naparu, gdy powiemy „przynieś mi z kuchni kawę”, musi wiedzieć bardzo wiele rzeczy o otaczającym go świecie. Przede wszystkim musi wiedzieć, gdzie jest kuchnia i gdzie w niej stoi kawa.

Jednym słowem: w maszynowej pamięci musi powstać – jak to dzieje się w ludzkim mózgu – mapa przestrzenna, która zawiera informacje o układzie pomieszczeń i przedmiotów. W mózgach takie mapy powstają nieświadomie. Dla twórców robotów to bardzo poważny problem. Jak przełożyć obraz z kamery na taką mapę? Jak z pikseli stworzyć model fizycznego świata?

Naukowcy z amerykańskiego Massachusetts Institute of Technology stworzyli algorytm – narzędzie, które znacznie to ułatwi. Nazwali je 3D Dynamic Scene Graphs. Pozwala na szybkie tworzenie trójwymiarowych map otoczenia i opatrywanie obiektów odpowiednimi etykietami. Pozwala też – co nie mniej istotne – na szybkie pozyskiwanie informacji z takiej mapy.

Szef zespołu, Luca Carlone, na co dzień adiunkt wydziału aeronautyki i astronautyki MIT, komentuje na stronie uczelni, że skompresowanie informacji o otoczeniu jest niezwykle użyteczne, bo pozwala na szybkie podejmowanie decyzji i planowanie drogi. „To niezbyt odległe od tego, co robimy my, ludzie. Jeśli planujemy przejść z domu na uczelnię, nie robimy tego krok po kroku. Po prostu myślimy o ulicy, punktach orientacyjnych, co sprawia, że zaplanowanie trasy jest szybsze”.

Co w pomyśle badaczy z MIT jest nowego? Dotychczas widzenie i nawigacja podążały osobnymi ścieżkami. Mapowanie w trzech wymiarach pozwalało na orientację robotów w przestrzeni. Opatrywanie obiektów etykietami było zwykle oparte na obrazach ze zdjęć wideo, czyli dwuwymiarowych.

Zespół postanowił połączyć jedno z drugim i mapować przestrzeń w trzech wymiarach, jednocześnie ucząc system klasyfikacji obiektów (przedmiotów i ludzi). Wszystko to w czasie rzeczywistym – bo choć przedmioty zwykle spoczywają na swoich miejscach, ludzie mają skłonność do przemieszczania się.

Nasza praca to skok w nową erę, w której roboty zyskują percepcję, którą można nazwać przestrzenną sztuczną inteligencją. Jest dopiero w powijakach, ale ma niezwykły potencjał

Antoni Rosinol, główny badacz zespołu

Rozwiązanie oparte jest na bibliotece open source (wykorzystywanej do tworzenia trójwymiarowych map przestrzennych) o nazwie Kimera. Tworzy ono trójwymiarową sieć, w której obiekty są jej węzłami sieci. Robot może przeglądać taki trójwymiarowy model świata za pomocą różnych filtrów, które uwzględniają obiekty danego rodzaju. To nieco przypomina ludzki sposób skupiania uwagi. My także nie zwracamy świadomie uwagi na wszystko, co nas otacza – jedynie na to, co jest nam do wykonania bieżącej czynności potrzebne.

„W zasadzie wyposażamy roboty w modele mentalne podobne do ludzkich” – mówi Luca Carlone. – „To może znaleźć wiele zastosowań: od autonomicznych aut, przez poszukiwania w akcjach ratowniczych, procesy przemysłowe, po roboty domowe”.

„Nasze podejście było możliwe dzięki postępom w głębokim uczeniu maszynowym i dekadom badań nad mapowaniem przestrzennym w czasie rzeczywistym” – dodaje Antoni Rosinol, główny badacz zespołu. – „Nasza praca zaś to skok w nową erę, w której roboty zyskują percepcję, którą można nazwać przestrzenną sztuczną inteligencją. Jest dopiero w powijakach, ale ma niezwykły potencjał”.

Potencjał dostrzegła też amerykańska armia, bowiem badania były częściowo finansowane przez Army Research Laboratory (wojsk lądowych) oraz Office of Naval Research (marynarki wojennej). Nic dziwnego, orientujące się w przestrzeni roboty przydadzą się także siłom zbrojnym.

Praca badaczy zostanie przedstawiona na konferencji „Robotics: Science and Systems”, która odbyła się 12-16 lipca. Opublikowano ją w serwisie ArXiv. Kod dostępny jest w serwisie GitHub.

#Ciekawostki Co powie o tobie suszarka?

Data: 24.07.2020 21:40

Autor: ziemianin

news.mit.edu

#aktualnosci #codziennaprasowka #informacje #wiadomosci #algorytm #ChenYuHsu #energetyka #MIT #Sapple #uczeniemaszynowe #zdrowie #ciekawostkitechnologiczne #ciekawostki

Inteligentny czujnik „Sapple” podgląda życie domowników i analizuje, kiedy i jak używają sprzętu AGD. Wszystko po to, by oszczędzić energię. Ale nie tylko

#Ciekawostki Co powie o tobie suszarka?

Strona projektu

Urządzenie swym wyglądem przypomina router WIFI. Zbudowali je uczeni z Laboratorium Nauk Komputerowych i Sztucznej Inteligencji Massachusetts Institute of Terchnology.

Czujnik wykorzystuje sygnały radiowe i inteligentny licznik energii elektrycznej, do śledzenia zwyczajów domowników korzystających z urządzeń AGD, np. kuchenek mikrofalowych, pralek, zmywarek, a nawet suszarek do włosów.

Licznik energii jest podłączony do zamontowanego na ścianie urządzenia bezprzewodowego, które emitując sygnały radiowe podpatruje, gdzie przebywają domownicy i łączy te dane z modelem uczenia maszynowego. Algorytmy określają, kiedy i które urządzenie jest używane i zestawiają to z danymi, gdzie przebywa ich użytkownik.

Radiowy „czujnik lokalizacji” ma zasięg około 40 stóp (ok. 12,2 metra) Użytkownik, spacerując po swoim mieszkaniu konfiguruje sensor, co pozwala urządzeniu „zrozumieć” fizyczne granice i ograniczyć radiowy monitoring do określonego obszaru.

Jak zapewniają jego twórcy, narzędzie może przyczynić się do zmniejszenia zużycia prądu.

Badacze z MIT twierdzą, że Sapple może też wspomagać osoby starsze mieszkające samotnie. Wzorce korzystania przez nie z urządzeń gospodarstwa domowego mogą pomóc pracownikom służby zdrowia zrozumieć ich zdolność do wykonywania różnych czynności w życiu codziennym, aby pomóc wprowadzić zdrowe nawyki, jak na przykład higiena osobista, ubieranie się, jedzenie czy mobilność.

„Ten system może poprawić takie elementy, jak oszczędność energii i wydajność, lepiej zrozumieć codzienne działania seniorów mieszkających samotnie oraz zapewnić wgląd w analizę behawioralną inteligentnych środowisk” – wyjaśnia doktorant MIT Chen-Yu Hsu, główny autor nowego artykułu o Sapple.

Polacy nie gęsi . . . asystenta pisania mają

Data: 24.07.2020 00:24

Autor: ziemianin

goodwrite.pl

#ErmlabSoftware #GoodWrite #KatarzynaWitkowska #KrzysztofSopyla #PrzemyslawGorecki #siecineuronowe #uczeniemaszynowe #UniwersytetWarminskoMazurski #Olsztyn #aktualnosci #codziennaprasowka #informacje #wiadomosci

Jedenaście tysięcy błędów ortograficznych pojawia się dziennie w polskim internecie. Rocznie jest ich ponad 3,2 miliona*. Polacy pracują nad specjalnym narzędziem, które będzie je wyłapywać, zanim trafią do sieci

Polacy nie gęsi . . . asystenta pisania mają

Narzędzie o nazwie GoodWrite to inteligentny asystent pisania. Będzie pilnować poprawności językowej. Dokona korekty najtrudniejszych błędów językowych polszczyzny. Algorytmy określą też, czy tekst będzie zrozumiały dla odbiorcy.

Nad systemem od września ub. roku pracuje 13 osób. Całym projektem dowodzi dr inż. Przemysław Górecki – wiceprezes Ermlab Software i adiunkt Uniwersytetu Warmińsko-Mazurskiego w Olsztynie. To analityk, projektant i programista z kilkunastoletnim stażem, a także naukowiec z imponującym dorobkiem w obszarze systemów inteligentnych, przetwarzania obrazów i uczenia maszynowego. Jest także współzałożycielem Ermlab Software, ulokowanym w Olsztyńskim Parku Naukowo-Technologicznym i kierownikiem projektu GoodWrite. Kierownikiem prac badawczych jest dr Krzysztof Sopyła, pasjonat uczenia maszynowego, ekspert w zakresie rozwiązań opartych na sztucznej inteligencji, bloger i dydaktyk oraz prezes Ermlabu.

– Nasza autokorekta oparta będzie na uczeniu maszynowym, sieciach neuronowych, ale też wnikliwej analizie morfosyntaktycznej czy statystycznej – wyjaśnia dr Sopyła. – Chcemy stworzyć narzędzie, które stanie się inteligentnym asystentem pisania: szybko i sprawnie wykryje błędy oraz miejsca, w których tekst może być niezrozumiały dla odbiorcy, zaznaczy je i zasugeruje poprawki.

W zespole są również językoznawcy, analitycy danych, data scientists i programiści. Wśród znawczyń języka są m.in. dr Katarzyna Witkowska z Katedry Języka Polskiego Instytutu Językoznawstwa Uniwersytetu Warmińsko- Mazurskiego oraz dr Monika Czerepowicka, współpracująca m.in. z Instytutem Podstaw Informatyki Polskiej Akademii Nauk. Od 2018 roku zespół tworzy rozwiązania i udoskonala algorytmy, a od niecałego roku oficjalnie pracuje nad GoodWrite. Efekty jego prac monitorują na bieżąco beta testerzy (blogerzy, naukowcy, dziennikarze, marketingowcy).

Przecież edytory to potrafią?

Można się zastanawiać, dlaczego akurat takie rozwiązanie, skoro nawet najprostsze edytory tekstów potrafią wyłapać błędy w polszczyźnie?

– O ile zdecydowana większość dostępnych na rynku narzędzi do automatycznej korekty tekstu bardzo dobrze radzi sobie z wskazywaniem podstawowych błędów (np. potknięć związanych z interpunkcją czy fleksją), o tyle rozpoznawanie bardziej zaawansowanych usterek wypada dużo gorzej. Przykładowo, jeśli w Wordzie napiszemy: „Jaś poszła na zakupy”, program nie zaznaczy tego błędu. Dzieje się tak dlatego, że brakuje tutaj osadzenia form w kontekście (a składnia jest niczym innym jak osadzeniem form w kontekście zdaniowym, forma „poszła” w izolacji jest poprawna, ale w zdaniu powinna być dostosowana pod względem osoby, liczby i rodzaju do „Jasia”). – tłumaczy dr Witkowska, która w projekcie pełni również rolę PR managera. – Narzędzie, nad którym pracujemy rozwiąże ten problem, ponieważ będzie bazować i na prostych formułach gramatycznych, ale i na bardziej skomplikowanych regułach gramatycznych.

Chcemy stworzyć narzędzie, które stanie się inteligentnym asystentem pisania: szybko i sprawnie wykryje błędy oraz miejsca, w których tekst może być niezrozumiały dla odbiorcy, zaznaczy je i zasugeruje poprawki

dr Krzysztof Sopyła

Czy to po prostu polska wersja popularnej aplikacji Grammarly, która w podobny sposób sprawdza teksty angielskie? Rozwiązania są podobne w działaniu, ale po pierwsze GoodWrite.pl jest po polsku i z Polski. Poza tym GoodWrite będzie składał się z dwóch modułów.

– Pierwszy to ten, o którym już wspomniałam, tj. rozpoznawanie błędów językowych i dawanie przejrzystych wskazówek, co i jak należy poprawić. Drugi z kolei związany jest z oceną czytelności / jasności tekstu, czyli tym, w jakim stopniu tekst będzie zrozumiały dla odbiorcy. Chcemy, by narzędzie wskazywało zdania, które z jakichś powodów są zbyt skomplikowane i nad którymi autor tekstu będzie musiał jeszcze popracować, np. przeredagować je lub podzielić – dodaje dr Witkowska w rozmowie z portalem sztucznainteligencja.org.pl.

Psują teksty

Jak wiadomo, w procesach uczenia maszynowego dane mają kluczowe znaczenie. Ważna jest tutaj zarówno ich ilość, jak i jakość.

– Po części korzystamy np. z tekstów opublikowanych na portalach internetowych, Wikipedii, tekstów ustaw czy opracowań naukowych. Naszym celem jest jednak nauczenie algorytmów, jak mają rozpoznawać konkretne usterki językowe. W internecie czy innych cyfrowych zasobach trudno jest jednak znaleźć „dobre” błędy, tj. np. zdania, w których popełniono tylko jeden błąd określonego typu. Opracowanie błędów znalezionych w gotowych tekstach byłoby niezwykle czasochłonne, bo najczęściej wymagałoby ręcznego sprawdzenia i klasyfikacji. To zajęcie, na które chyba nikt nie może sobie pozwolić, ponieważ mówimy tu nie o kilkudziesięciu czy kilkuset tekstach, a o kilkudziesięciu czy kilkuset gigabajtach tekstu – wyjaśnia dr Katarzyna Witkowska. – Dlatego zdecydowaliśmy się na inne rozwiązanie – w celu przygotowania odpowiedniego datasetu, psujemy dobre teksty, tj. w

prowadzamy do nich określone błędy. Odbywa się to w sposób uporządkowany i kontrolowany, ponieważ wcześniej przygotowaliśmy kompletny zestaw reguł językowych do zaimplementowania.

Dwuletnie przedsięwzięcie dofinansowuje Unia Europejska. Prace nad powstaniem narzędzia mają charakter badawczo-rozwojowy i dofinansowane są z Funduszy Europejskich w ramach konkursu Narodowego Centrum Badań i Rozwoju: „Szybka Ścieżka”. Dofinansowanie projektu wyniosło 1,75 miliona złotych. Edytor GoodWrite w wersji tekstowej można już wypróbować pod adresem https://editor.goodwrite.it/

Chronić dzieci w sieci, czyli droga samuraja

Data: 09.07.2020 23:34

Autor: ziemianin

akademia.nask.pl

#aktualnosci #codziennaprasowka #informacje #wiadomosci #cyberprzemoc #dzieci #Facebook #hejt #internet #MichalWroczynski #NASK #NLP #pedofilia #przemoc #Reddit #SamuraiLabs #systemyeksperckie #uczeniemaszynowe #pedofile

Pedofile grasują w sieci i nikt tego nie monitoruje. A dane są przerażające – twierdzi Michał Wroczyński, CEO & co-founder w Samurai Labs, w rozmowie z Tomaszem Jurczakiem

Raport NASTOLATKI 3.0 Wybrane wyniki ogólnopolskiego badania uczniów w szkołach (PDF)

Tomasz Jurczak: Pedofile grasują w sieci, większość bezkarnie. Da się jakoś oszacować skalę zagrożenia?

Michał Wroczyński*: Skala problemu jest trudna do oszacowania, bo nikt tego nie monitoruje. Ogólne wyobrażenie na jej temat możemy czerpać z badań pośrednich, które analizują zachowania dzieci w internecie. Tutaj dane te są przerażające: 23,1 procent młodocianych spotkało się z dorosłym, którego poznało w internecie, a 61,4 procent z nich nie powiedziało o tym rodzicom!

Mówimy tu o badaniach polskich, przeprowadzonych przez NASK [Naukowa i Akademicka Sieć Komputerowa – red.] w 2016 roku. Dane FBI mówią, że w każdej sekundzie w sieci grasuje 750 tysięcy drapieżników seksualnych, a co roku co najmniej 28 procent przypadków wykorzystywania seksualnego doprowadziło ofiarę do próby samobójczej. To dane jeszcze sprzed pandemii. Lockdown sprawił, że skala korzystania z internetu przez dzieci wzrosła radykalnie.

Jak technologia może pomóc chronić dzieci? Zazwyczaj rodzice albo pozwalają swoim pociechom korzystać z niej bez większej kontroli, albo stosują restrykcje.

Rozwój technologii stworzył wiele nieznanych wcześniej problemów. Dawniej, gdy na podwórku znalazł się jeden osiłek, który terroryzował całe osiedle, można było go unikać – iść do domu albo schronić się w grupie. Dziś za sprawą smartfonów dzieciaki są narażone na przemoc 24 godziny na dobę. Nie dziwię się rodzicom, którzy ograniczają im dostęp do sieci. Robią to z troski, tyle że dzieci i tak muszą korzystać z internetu, bo mamy nauczanie zdalne.

Jak działa wasz Samurai? Analizuje zdania, kluczowe słowa? Jest wiele takich systemów.

Ale mamy nad nimi przewagę, bo – po pierwsze – nasz system reaguje na wykryte zagrożenia w czasie rzeczywistym. Cóż z tego, że moderator wykryje podejrzane zachowanie dwa tygodnie po fakcie? W tym czasie może się przecież wydarzyć dużo złego. Po drugie, nasz internetowy strażnik nie tylko rozumie kontekst pojedynczej wypowiedzi, ale swoje decyzje podejmuje w oparciu o analizę całych rozmów. Ma to ogromne znaczenie w przypadku wykrywania pedofilii, gdzie analiza słów kluczowych nic nie daje, a cały proces określany jako child grooming, czyli budowy więzi emocjonalnej z dzieckiem, może trwać wiele dni bądź tygodni. Jeżeli Samurai wykryje tego typu zachowania, automatycznie blokuje rozmowę, a informację o podejrzanym zgłasza odpowiednim służbom.

Samurai potrafi coś więcej?

Potrafi. Możemy też walczyć z nękaniem w sieci albo reagować w razie zagrożenia samobójstwem. W każdym z tych przypadków scenariusz postępowania będzie adekwatny do problemu. Kiedy Samurai wykryje, że dziecko przejawia skłonności samobójcze, może połączyć je z osobami, które są w stanie skutecznie pomóc.

Sprawdziliście już swój system w realnym świecie czy tylko w symulowanych warunkach?

Nie upubliczniamy konkretnych danych na temat działania Samuraia. Mogę jedynie powiedzieć, że jest najskuteczniejszym systemem działającym w czasie rzeczywistym, który wykrywa i reaguje na przemoc w sieci. Mieliśmy okazję przetestować go na Reddicie, jednym z największych forów w sieci. Działał tam nasz chatbot James, którego zadaniem było wykrywanie i automatyczne reagowanie na komentarze atakujące i obrażające pozostałych członków społeczności. Kiedy ktoś atakował drugą osobę, James odpowiadał na wpis, mówiąc na przykład tak: „Hej, czy zdajesz sobie sprawę, że twój wpis mógł kogoś zranić?”. James uczył się, które z takich ostrzeżeń są w danej sytuacji najskuteczniejsze. Samo jego wkraczanie do dyskusji pozwoliło obniżyć przemoc o ponad 20 procent. A kiedy mógł blokować „niereformowalnych” agresorów, agresja spadła o ponad 40 procent.

Moderowanie treści związanych z cyberprzemocą nie jest zadaniem dla ludzi. Powinniśmy to oddać w ręce sztucznej inteligencji

Jak nauczyć system, by wykrywał podejrzane sytuacje?

Dzięki połączeniu uczenia maszynowego z wnioskowaniem symbolicznym Samurai potrzebuje niewiele danych do nauki, bo przede wszystkim potrafi wykorzystywać wiedzę ekspertów z psychologii czy lingwistyki. Zamiast pokazywać mu miliony przykładów ataków, uczymy go, w jaki sposób ludzie mogą używać języka naturalnego do atakowania innych. To szczególnie istotne wtedy, gdy danych po prostu nie ma i nie będzie.

Niedawno otrzymaliśmy dostęp do bezcennego zbioru danych – kilkuset autentycznych listów samobójczych w archiwach spraw sądowych. Dla systemów opartych o uczenie maszynowe to bardzo niewiele, ale dzięki analizie tych listów i wiedzy eksperckiej byliśmy w stanie zbudować model potrafiący wykrywać nie tylko prawdziwe intencje samobójcze, ale również identyfikować poszczególne etapy podejmowania decyzji o odebraniu sobie życia.

Czy działając w USA, pracowaliście z amerykańskimi służbami, jak FBI? Ciekawi mnie, czy wasza firma będzie współpracowała w Polsce z instytucjami walczącymi z zagrożeniami wobec dzieci.

Walkę z pedofilią zaczęliśmy ponad dziesięć lat temu. Na zlecenie Komendy Głównej Policji śledziliśmy wtedy pedofilów grasujących na polskich czatach. To naturalne, że w przypadku popełnienia przestępstwa czy zagrożenia samobójstwem współpracujemy ze służbami i organizacjami pomagającymi ludziom. Kilka miesięcy temu wraz z Hate Labem, organizacją działającą przy uniwersytecie w Cardiff, wspieraliśmy brytyjską policję w wykrywaniu przemocy wobec Polaków i innych mniejszości podczas brexitu. Tam, gdzie dzieje się krzywda, zawsze staramy się pomóc, niezależnie od tego, czy chodzi o współpracę FBI, czy z brytyjską Metropolitan Police Service.

Jaka jest przyszłość inteligentnych systemów walczących z hejtem, agresją, przestępstwami? W którą stronę idzie Samurai?

Ta technologia to pionierskie podejście do sztucznej inteligencji. DARPA [Defense Advanced Research Projects Agency, Agencja Zaawansowanych Projektów Badawczych w Dziedzinie Obronności – red.] nazywa je trzecią falą SI. Polega ono na połączeniu uczenia maszynowego z wnioskowaniem opartym o wiedzę ekspercką. Obecne systemy tzw. drugiej fali, oparte o samo uczenie maszynowe, świetnie radzą sobie z przetwarzaniem sygnału, doskonale rozpoznają mowę, bez problemu potrafią odróżnić kota od psa na zdjęciu, ale nie radzą już sobie ze zrozumieniem kontekstu wypowiedzi czy odróżnianiem opinii od agresji. Samurai ograniczył wskaźnik fałszywych alarmów do poziomu umożliwiającego automatyczną reakcję. Udowodnił, że może być skutecznym moderatorem, który podejmuje słuszne decyzje w ułamku sekundy. To przyszłość bezpieczeństwa w sieci.

Sztuczna inteligencja to jedyna skuteczna broń przeciw hejtowi i pedofilom w internecie?

Liczba wypowiedzi generowanych w każdej sekundzie na forach, portalach społecznościowych czy w grach jest gigantyczna. Żaden moderator nie jest w stanie reagować na wszystkie złe rzeczy, które dzieją się w sieci. Facebook, choć zatrudnia kilkadziesiąt tysięcy moderatorów na całym świecie, przyznaje, że potrzebuje około dziesięciu lat na opracowanie systemu, który pozwoli na skuteczną moderację treści w czasie rzeczywistym. To obrazuje skalę problemu.

Z dnia na dzień pięć i pół miliona polskich uczniów przeniosło całe swoje życie do sieci – a za nimi podążyły drapieżniki

Do tego dochodzi niezwykle ważny aspekt ludzki. W maju Facebook zgodził się wypłacić moderatorom 52 milionów dolarów odszkodowania za uszczerbek na zdrowiu psychicznym. To dowodzi, że moderowanie treści związanych z cyberprzemocą nie jest zadaniem dla ludzi. Powinniśmy to oddać w ręce sztucznej inteligencji.

Dlaczego dopiero teraz decydujecie się na polską wersję Samuraia?

Zaczęliśmy od angielskiego z uwagi na możliwość skalowania rozwiązania oraz dostępność różnych danych wejściowych. Ale to wcale nie oznacza, że mieliśmy łatwiej. Dla systemów opartych o rozumienie gramatyki język polski jest znacznie prostszy. To, co ludziom sprawia duży kłopot, czyli fleksja, komputerom pozwala ujednoznacznić wypowiedź. W angielskim kluczowe znaczenie ma pozycja słowa w zdaniu, a identycznie wyglądające słowo może mieć dziesiątki różnych znaczeń. Jedną z przyczyn, dla których zaczęliśmy pracę nad wersją w języku polskim, była pandemia. Z dnia na dzień pięć i pół miliona polskich uczniów przeniosło całe swoje życie do sieci – a za nimi podążyły drapieżniki. A ponieważ wszystko wskazuje na to, że liczba prób samobójczych wzrośnie, postanowiliśmy przyspieszyć prace nad polską wersją systemu, którą i tak mieliśmy zrealizować.

Kiedy ją odpalacie?

Rozwiązanie chroniące polskie dzieci jest już na ukończeniu, w najbliższych tygodniach przejdzie fazę testów. Naszym celem jest ochrona dzieci i przed rosnącą przemocą w internecie, i przed przestępcami seksualnymi. Dziś polskie dzieci narażone są na zagrożenia jak nigdy wcześniej. Chcemy pomóc im bezpiecznie korzystać z internetu.

Plany na przyszłość?

Rozwijamy się bardzo intensywnie, powiększamy zespół. Szukamy inżynierów, lingwistów komputerowych, programistów, by dalej rozwijać naszą technologię, bo chcemy wejść na rynek globalny.