Najnowsze prace, w których uczestniczy BIPAR oraz Stowarzyszenie Brokerów

 

Szanowni Członkowie,

Chcielibyśmy poinformować o najnowszych pracach, w których uczestniczy BIPAR, a wraz z nim także Stowarzyszenie Polskich Brokerów Ubezpieczeniowych i Reasekuracyjnych. Obecnie przygotowujemy odpowiedzi na kwestionariusz przygotowany przez BIPAR.

Poniżej prezentujemy informację w tym zakresie.

Komisja rozpoczęła konsultacje społeczne w sprawie przepisów dotyczących odszkodowań za szkody wyrządzone przez wadliwe produkty, w szczególności przez zastosowanie sztucznej inteligencji (AI) w produktach i usługach. Obecnie znajdujemy się w fazie przeglądu dyrektywy UE w sprawie odpowiedzialności za produkty (dyrektywa 85/374/EWG) oraz analizowania czy inne krajowe przepisy dotyczące odpowiedzialności nadal zapewniają pewność prawną i ochronę konsumentów w dobie inteligentnych produktów i usług opartych na sztucznej inteligencji.

Najistotniejsze kwestie dla pośredników ubezpieczeniowych i finansowych oraz ich klientów wynikające z tej inicjatywy są następujące:

– Kto zostanie pociągnięty do odpowiedzialności za wszelkie szkody lub straty poniesione w wyniku wadliwych produktów/systemów AI. Ponadto czy pośrednicy, którzy świadczą swoje usługi z wykorzystaniem systemu AI wyprodukowanego przez osobę trzecią, mogą zostać pociągnięci do odpowiedzialności za szkody spowodowane wadą systemu AI?

– Czy w przypadku szkód spowodowanych przez systemy AI należy stosować system odpowiedzialności na zasadzie ryzyka (bez konieczności udowodnienia zaniedbania), czy też nadal powinien obowiązywać system odpowiedzialności na zasadzie winy?

– Czy obowiązkowe ubezpieczenie od odpowiedzialności wynikającej z użytkowania produktów/usług opartych na sztucznej inteligencji byłoby rozwiązaniem zapewniającym odszkodowanie za takie szkody?

Konsultacje Komisji składają się z dwóch części: 1) dotyczącej dyrektywy w sprawie odpowiedzialności za produkty w ujęciu ogólnym oraz 2) dotyczącej krajowych zasad odpowiedzialności w odniesieniu do AI (sekcja II). Konieczność przeglądu regulacji wynika z braku przejrzystości i złożoności – efekt czarnej skrzynki, jak również z wysokiego stopnia autonomii niektórych systemów AI. W związku z tym istnieje ryzyko nieotrzymania odszkodowania za szkody wyrządzone przez AI.

Celem Komisji jest zapewnienie, aby osoby poszkodowane w wyniku szkód wyrządzonych przez produkty i usługi wykorzystujące SI miały podobny poziom ochrony jak osoby poszkodowane w wyniku szkód wyrządzonych przez technologie niewykorzystujące SI.

W związku z tym w sekcji II konsultacji przeanalizowano wszystkie trzy filary istniejących ram odpowiedzialności:

– Dyrektywa w sprawie odpowiedzialności za produkty, dotycząca roszczeń konsumentów wobec producentów wadliwych produktów. Poszkodowany musi udowodnić wadliwość produktu oraz związek przyczynowy między wadą a szkodą. Oprócz producentów systemów AI Komisja bada odpowiedzialność użytkowników AI, dostawców usług AI i operatorów AI.

– Krajowe zasady odpowiedzialności na zasadzie winy. Strona poszkodowana musi udowodnić winę pozwanego (zaniedbanie lub zamiar wyrządzenia szkody) oraz związek przyczynowy między winą a szkodą.

– Krajowe systemy odpowiedzialności na zasadzie ryzyka ustalane przez każde państwo członkowskie dla technologii lub działań uznawanych za stwarzające zwiększone ryzyko dla społeczeństwa (np. samochody lub prace budowlane). Odpowiedzialność na zasadzie ryzyka oznacza, że odpowiednie ryzyko jest przypisywane komuś niezależnie od winy. Jest to zwykle uzasadnione faktem, że

Osoba ponosząca ścisłą odpowiedzialność odnosi korzyści z narażenia społeczeństwa na ryzyko.

Ewentualnym wariantem polityki na szczeblu UE jest harmonizacja odpowiedzialności na zasadzie ryzyka (pełnej lub minimalnej), odrębnie od dyrektywy w sprawie odpowiedzialności za produkt, w odniesieniu do szkód spowodowanych działaniem niektórych produktów wykorzystujących AI lub świadczeniem niektórych usług wykorzystujących AI. Można by to rozważyć w szczególności w przypadkach, w których wykorzystanie SI (np. w autonomicznych pojazdach i autonomicznych dronach) naraża społeczeństwo na ryzyko szkód dla ważnych wartości, takich jak życie, zdrowie i mienie.

W ramach konsultacji analizuje się ponadto rolę (dobrowolnych lub obowiązkowych) rozwiązań ubezpieczeniowych w ujęciu ogólnym. W wielu krajowych systemach odpowiedzialności na zasadzie ryzyka osoba odpowiedzialna jest zobowiązana na mocy prawa do wykupienia ubezpieczenia. Podobne rozwiązanie można by wybrać na poziomie UE w odniesieniu do szkód spowodowanych przez niektóre rodzaje systemów sztucznej inteligencji, które stwarzają poważne zagrożenie (np. życia, zdrowia, mienia) dla społeczeństwa?

Wreszcie, w ramach konsultacji bada się możliwość zharmonizowania odszkodowań za inne rodzaje szkód, takie jak straty ekonomiczne, utrata danych, szkody niematerialne (np. ból i cierpienie), oprócz obrażeń ciała lub szkód na przedmiotach fizycznych.

KONTEKST prowadzonych przez Komisję:

  • W białej księdze w sprawie AI i towarzyszącym jej sprawozdaniu w sprawie skutków AI, IoT i robotyki dla bezpieczeństwa i odpowiedzialności, opublikowanych w lutym 2020 r., Komisja zidentyfikowała potencjalne problemy z zasadami odpowiedzialności, wynikające ze szczególnych właściwości niektórych systemów AI. Zob. również nasze wiadomości e-mail wysłane w dniach 24.02.2020 r. i 09.06.2020 r.
  • W czerwcu 2021 r. Komisja opublikowała do konsultacji plan działania dotyczący „Dostosowania zasad odpowiedzialności do ery cyfrowej i gospodarki obiegowej” (zob. również naszą korespondencję z dnia 06.07.2021 r.).
  • W dniu 21 kwietnia 2021 r. Komisja zaproponowała zharmonizowane przepisy dotyczące opracowywania, wprowadzania do obrotu i stosowania niektórych systemów AI (ustawa o AI). Ustawa o AI zawiera obowiązki dostawców i użytkowników systemów AI, np. w zakresie nadzoru ludzkiego, przejrzystości i informacji. Przepisy dotyczące bezpieczeństwa minimalizują, ale nie mogą całkowicie wykluczyć wypadków. Ramy odpowiedzialności wchodzą w grę, gdy dochodzi do wypadków i spowodowania szkód.
  • Oprócz tych ram, ogólne rozporządzenie o ochronie danych (GDPR) daje każdemu, kto

każdemu, kto poniósł szkodę materialną lub niematerialną w wyniku naruszenia rozporządzenia, prawo do otrzymania odszkodowania od administratora lub podmiotu przetwarzającego.

odszkodowania od administratora lub podmiotu przetwarzającego.

Oczekuje się, że do trzeciego kwartału 2022 r. Komisja przyjmie wniosek ustawodawczy dotyczący zasad odpowiedzialności w odniesieniu do sztucznej inteligencji.