Błąd robota. Kto odpowiada?
Osoby obsługujące roboty autonomiczne nie mają w praktyce większych szans na udowodnienie, że przyczyną powstałej szkody było wadliwe działanie maszyny. W związku z tym, że użytkownik nie może ingerować w jego konstrukcję i co więcej w oprogramowanie, trzeba pilnie wprowadzić do przepisów domniemanie winy wytwórców.
09.07.2017 | aktual.: 09.07.2017 10:54
Niedawno Unia Europejska podjęła rezolucję, która zachęca organy wspólnoty i państwa członkowskie do uregulowania kwestii dotyczących odpowiedzialności za szkody, wyrządzane przez roboty. Jak zauważa ekspert z Kancelarii Gajek i Wspólnicy, roboty są obecne w życiu człowieka już od lat 80. XX wieku. Jednak, współcześnie pełnią one niezwykle ważne funkcje w najbliższym otoczeniu konsumenta, a także zastępują ludzi w wykonywaniu wysoce odpowiedzialnych zadań. Dlatego, nadszedł czas, aby poważnie zweryfikować, czy dotychczasowe przepisy są adekwatne do aktualnego stanu rozwoju techniki i sposobu używania maszyn.
– Obecnie obowiązujące przepisy w UE i państwach członkowskich przewidują odpowiedzialność za szkody, wyrządzone przez roboty, na zasadzie winy. Wyjątkiem jest odpowiedzialność w zakresie ryzyka przedsiębiorców, np. za działanie dronów, lub posiadaczy pojazdów komunikacyjnych. Generalnie za maszynę odpowiada ten, kto ją wykorzystuje. Jednak problem pojawia się wtedy, gdy mamy do czynienia z urządzeniami działającymi autonomicznie. Wówczas wpływ użytkowników na sposób ich funkcjonowania jest dość niewielki bądź żaden. W tym wypadku należy rozważyć, czy istniejące regulacje są adekwatne i słuszne – zwraca uwagę Marek Gajek.
Główny ciężar odpowiedzialności za szkody, wyrządzone przez roboty autonomiczne, właściwie powinien spoczywać na producentach tych maszyn, zwłaszcza gdy mamy do czynienia z urządzeniami przeznaczonymi dla konsumentów. W typowych przypadkach, użytkownicy nie mają możliwości jakiejkolwiek ingerencji w oprogramowanie, które steruje działaniem maszyn. Jest ono przypisane do nich na stałe.
Użytkownik robota bez ochrony prawnej
Ekspert podkreśla, że przepisy w tym zakresie są zbyt lakoniczne i pozostawiają bardzo szerokie pole do interpretacji. Trzeba więc je doprecyzować, wskazując, kto i w jakich konkretnie przypadkach może być winny za wystąpienie określonych zdarzeń.
– Jeśli szkoda jest spowodowana wadą samego urządzenia, w tym m.in. awarią systemu, odpowiedzialność za nieszczęśliwe zdarzenie powinien ponosić wyłącznie producent, chyba że wynika to z wydania błędnej komendy. Ale przeciętny użytkownik nie jest w stanie udowodnić przed wymiarem sprawiedliwości, że niewłaściwe działanie maszyny wywołał np. błąd programu, a nie jego polecenie. Pomijając nawet potrzebę posiadania fachowej wiedzy, szczegóły dotyczące działania robotów definiowane są zazwyczaj w ich oprogramowaniu. Jego kody nie są powszechnie udostępniane, lecz chronione prawem autorskim i stanowią tajemnicę producentów – stwierdza Marek Gajek.
Jak zaznacza Arbiter Sądu Arbitrażowego przy Krajowej Radzie Gospodarczej, wysokość odszkodowań ww. przypadkach nie jest limitowana. W celu zabezpieczenia użytkowników robotów, należy więc wprowadzić w przepisach prawa, np. w kodeksie cywilnym, ustawowe domniemanie winy producentów lub podmiotów wprowadzających urządzenia do sprzedaży. Mogliby oni, po przeprowadzeniu odpowiednich badań i wykazaniu dowodów, w oparciu o dostępne im zasoby oraz wiedzę techniczną, ewentualnie oczyścić się z zarzutu. Wykazaliby wówczas, że szkoda jest zawiniona przez użytkownika.
– Należy pamiętać też o tym, że sterowanie urządzeniem autonomicznym może zostać przejęte przez osobę nieupoważnioną. Haker ma wówczas szansę na wykorzystanie robota do celów własnych lub swojego zleceniodawcy. Jeżeli jego działanie wyrządzi szkodę innym osobom, bądź doprowadzi do zniszczenia samego sprzętu, to absolutnie nie powinna za to odpowiadać zaatakowana obsługa. W obecnych czasach przepisy muszą już przewidywać tego typu niebezpieczeństwa oraz chronić przed odpowiedzialnością użytkowników robotów, nieposiadających wymaganych zabezpieczeń. W tym zakresie również można wprowadzać domniemania prawne – sugeruje Marek Gajek.
"Czarne skrzynki" rozwiążą problem?
Udowodnienie ataku hackerskiego często nie jest łatwe, więc należy wymagać od producentów, aby roboty miały możliwość odtworzenia wprowadzanych komend oraz ich źródeł. W tym celu powinny być obowiązkowo montowane tzw. "czarne skrzynki”. Dotyczy to zwłaszcza komercyjnych dronów i pojazdów komunikacyjnych. Jak podkreśla ekspert z Kancelarii Gajek i Wspólnicy, chodzi przede wszystkim o zapewnienie odpowiedniej ochrony prawnej osobom obsługującym roboty, które obecnie stały się szczególnie narażone na cyberataki.
– Teoretycznie każdy użytkownik robota może ubezpieczyć się od wyrządzonych przez niego szkód. Jeżeli jednak maszyny, będą powodowały zbyt wiele zniszczeń, to tego typu ubezpieczenia staną się wysoce kosztowne. Ponadto, ubezpieczyciele mogą stosować dodatkowe ograniczenia w polisach lub nawet przestać oferować takie usługi. Jeśli do tego dojdzie, to racjonalne okaże się wprowadzenie obowiązkowych ubezpieczeń lub utworzenie funduszu odszkodowawczego, np. na wzór polskiego Bankowego Funduszu Gwarancyjnego. Składki odprowadzaliby producenci lub sprzedawcy robotów. Pokrywałby one co najmniej szkody powstałe z tzw. przyczyn nieustalonych – przewiduje Marek Gajek.