Automatyzacja bez dehumanizacji w zarządzaniu szkodami

Kiedy projektowanie ścieżki klienta robi całą różnicę

Udostępnij

Dwa towarzystwa ubezpieczeniowe wdrażają tę samą technologię AI do automatyzacji zarządzania szkodami. Ten sam algorytm, ten sam budżet, ta sama ambicja.

Sześć miesięcy później pierwsze osiąga 20% adopcji przy spadającej satysfakcji klientów. Drugie osiąga 60% adopcji ze wzrostem wskaźnika NPS.

Co się zmieniło? Nie technologia. Projektowanie ścieżki klienta.

Ta różnica nie jest anegdotyczna. Badanie Insurance Nexus pokazuje, że tylko 22% ubezpieczycieli uważa swoje procesy obsługi szkód za „najlepsze w klasie”, podczas gdy 87% ubezpieczonych (według Bain & Company) uznaje „doświadczenie związane ze szkodą” za decydujące dla swojej lojalności. Na rynku, gdzie pozyskanie nowego klienta kosztuje pięć razy więcej niż utrzymanie istniejącego, to równanie zmienia wszystko.

Jednak wielu ubezpieczycieli nadal automatyzuje, koncentrując się wyłącznie na efektywności operacyjnej, zaniedbując trzy wymiary krytyczne dla sukcesu: ramy prawne, zachowania ludzkie i transformację zawodów.

Ten artykuł eksploruje te trzy wymiary i pokazuje, jak odnoszące sukcesy organizacje nie pytają „jak zautomatyzować więcej”, ale „jak zautomatyzować lepiej”.

Spis treści
Spis treści

Wymiar 1: Ramy prawne

Wiele organizacji waha się przed automatyzacją z obawy przed sankcjami. Ten strach jest uzasadniony, ale nie powinien paraliżować. Europejskie ramy regulacyjne są surowe, ale wykonalne.

AI Act: jasne zasady dla ubezpieczeń

Europejskie rozporządzenie w sprawie sztucznej inteligencji, które weszło w życie 1 sierpnia 2024 r., klasyfikuje systemy AI według poziomu ryzyka. W przypadku ubezpieczeń sytuacja jest jasna: ocena ryzyka i wycena w ubezpieczeniach na życie i zdrowotnych są klasyfikowane jako systemy wysokiego ryzyka.

Ta klasyfikacja nakłada trzy główne obowiązki: pełną przejrzystość funkcjonowania algorytmu, identyfikowalność każdej decyzji oraz ocenę wpływu na prawa podstawowe.

Sankcje? Do 30 milionów euro lub 6% światowego rocznego obrotu (zgodnie z europejskim rozporządzeniem AI Act), w zależności od tego, która kwota jest wyższa.

Ale rutynowe zarządzanie szkodami nie jest automatycznie klasyfikowane jako „wysokie ryzyko”. Szkoda w szybie obsługiwana automatycznie z możliwością odwołania? Akceptowalne. Całkowicie zautomatyzowana odmowa pokrycia bez możliwości interwencji człowieka? Problematyczne.

Artykuł 22 RODO: centralny mechanizm zabezpieczający

Od 2018 roku RODO ustanawia fundamentalną zasadę w artykule 22: każda osoba ma prawo do tego, aby nie podlegać decyzji opartej wyłącznie na zautomatyzowanym przetwarzaniu, wywołującej skutki prawne, bez możliwości interwencji człowieka.

Istnieją trzy wyjątki: wyraźna zgoda, konieczność umowna lub zezwolenie prawne. W każdym przypadku ubezpieczony musi móc uzyskać wyjaśnienie decyzji, ją zakwestionować i żądać ludzkiej weryfikacji.

Praktyczny model: segmentacja według złożoności

Pragmatyczne rozwiązanie, które pojawia się w sektorze? Segmentacja spraw według ich złożoności i stawki, stosując zasadę „Human-in-the-loop” (nadzór ludzki w pętli decyzyjnej).

70-80% przypadków: nadzorowana automatyzacja
Szkody w szybach, standardowa pomoc drogowa, rutynowe wnioski informacyjne. AI obsługuje od początku do końca. Algorytm monitoruje anomalie i przekazuje wątpliwe przypadki człowiekowi.

Możesz: Całkowicie zautomatyzować te proste szkody (zazwyczaj < 500€), pod warunkiem zachowania możliwości odwołania i wyjaśnienia.

15-20% przypadków: współpraca AI-człowiek
Szkody ze wspólną odpowiedzialnością, wysokie kwoty, nietypowe okoliczności. AI zbiera informacje, przeprowadza wstępną analizę, sugeruje ocenę. Ale to likwidator szkód podejmuje ostateczną decyzję.

Możesz: Wykorzystać AI do wstępnej analizy i przygotowania złożonych akt, z obowiązkową ludzką decyzją.

5-10% przypadków: wyłączna interwencja człowieka
Sytuacje wrażliwe (osoby starsze w izolacji, niepełnosprawność), spory sądowe, poważne szkody ze znacznymi obrażeniami ciała. Te sprawy wymagają empatii i niuansowanej oceny od samego początku.

Musisz: Zagwarantować bezpośredni dostęp do człowieka w tych wrażliwych sytuacjach.

Podstawy do działania

Ramy prawne nie blokują automatyzacji. Wyznaczają granice. Trzy bezwzględne zasady do przestrzegania:

  1. Zawsze zachowuj możliwość interwencji człowieka – nawet jeśli jest wykorzystywana tylko w 5% przypadków
  2. Gwarantuj przejrzystość i wyjaśnialność – ubezpieczony musi móc zrozumieć, dlaczego podjęto decyzję
  3. Segmentuj inteligentnie – nie wszystko można automatyzować w ten sam sposób

Ta architektura to nie tylko ograniczenie. To także gwarancja jakości: złożone sprawy zasługują na ludzkie oko, proste sprawy zasługują na natychmiastowe rozwiązanie.

💡 Kluczowe wnioski

Europejskie ramy regulacyjne (AI Act + RODO) nie zabraniają automatyzacji, wyznaczają jej ramy. Klucz: segmentacja spraw według poziomu złożoności, zawsze zachowuj możliwość interwencji człowieka oraz gwarantuj przejrzystość i wyjaśnialność. Model „Human-in-the-loop” godzi zgodność z przepisami i efektywność.

Wymiar 2: Projektowanie behawioralne

Zgodność prawna wyznacza ramy. Ale między „tym, co jest dozwolone” a „tym, co naprawdę działa”, jest cały świat. Świat, który pomaga nam zrozumieć ekonomia behawioralna.

Efekt domyślny: najpotężniejsza niewidzialna siła w projektowaniu

Rozważmy dwóch ubezpieczycieli automatyzujących swoją usługę pomocy w przypadku szkody komunikacyjnej.

Ubezpieczyciel A prezentuje swoją ścieżkę w ten sposób:
„Masz szkodę komunikacyjną. Czy chcesz skorzystać z pomocy naszego chatbota, aby przyspieszyć rozpatrzenie? [Tak] [Nie, wolę porozmawiać z doradcą]”

Ubezpieczyciel B prezentuje tę samą ścieżkę inaczej:
„Twój asystent cyfrowy przetworzy Twoje zgłoszenie natychmiast. W każdej chwili możesz porozmawiać z doradcą, klikając tutaj.”

Ta sama technologia. Ta sama zdolność przetwarzania. Ale radykalnie różne wyniki: 20% adopcji dla Ubezpieczyciela A, 60% dla Ubezpieczyciela B.

Dlaczego? Efekt domyślny.

Metaanaliza badań z ekonomii behawioralnej (Johnson & Goldstein, 2003) pokazuje, że osoby mają o 27% wyższą prawdopodobieństwo wyboru opcji prezentowanej jako „domyślna” — nawet gdy mogą ją swobodnie zmienić.

To nie jest manipulacja. To przemyślane projektowanie. W momencie stresu (szkoda), przedstawienie najszybszej opcji jako wyboru domyślnego upraszcza decyzję. Ubezpieczony zawsze zachowuje kontrolę, ale nie jest już sparaliżowany niezdecydowaniem.

I oto paradoks: użytkownicy umieszczeni w opt-out (jak Ubezpieczyciel B) czują się bardziej autonomiczni niż ci w opt-in (jak Ubezpieczyciel A). Dlaczego? Ponieważ nie musieli „uzasadniać” swojego wyboru od początku. Po prostu posunęli się naprzód, wiedząc, że mogą wyjść w każdej chwili.

4 złote zasady projektowania zautomatyzowanych ścieżek

Na podstawie tych ustaleń, oto cztery zasady, które różnicują automatyzację znoszącą od automatyzacji przyjmowanej.

Zasada 1: Prezentuj automatyzację jako naturalną ścieżkę, a nie opcję do uzasadnienia

❌ Złe projektowanie:
„Czy chcesz skorzystać z naszego automatycznego asystenta, czy wolisz porozmawiać z doradcą?”

✅ Dobre projektowanie:
„Twoje zgłoszenie jest przetwarzane. W każdej chwili możesz porozmawiać z doradcą.”

Różnica? Pierwsze wymusza wybór. Drugie oferuje bezpieczeństwo.

Zasada 2: Uczyń wyjście łatwym i widocznym, nie zawstydzającym

Przycisk „Porozmawiaj z doradcą” musi być:

  • Permanentnie widoczny (nie ukryty w menu)
  • Sformułowany pozytywnie (nie „Nie jesteś zadowolony?”)
  • Bez tarcia (bez konieczności uzasadnienia)

Badanie Forrester pokazuje, że użytkownicy są 2,5 razy bardziej skłonni do korzystania z zautomatyzowanego systemu, gdy wyraźnie widzą, jak z niego wyjść.

Zasada 3: Wyjaśniaj bez zatapiania

Ubezpieczony nie chce kursu o AI. Chce wiedzieć trzy rzeczy:

  1. Co się teraz dzieje?
  2. Ile to zajmie czasu?
  3. Jak wyjść, jeśli chcę?

Utrzymuj wyjaśnienia krótkie, konkretne, uspokajające.

❌ „Nasz system sztucznej inteligencji analizuje Twoją sprawę przy użyciu algorytmów uczenia maszynowego zgodnych z normami RODO…”

✅ „Analizujemy Twoją sprawę. Odpowiedź w 2 minuty. Możesz porozmawiać z doradcą tutaj.”

Zasada 4: Rozpoznaj, kiedy człowiek jest niezbędny

I tutaj pojawia się fascynująca koncepcja z badań nad AI: paradoks Moraveca.

Paradoks Moraveca: kiedy AI zawodzi tam, gdzie człowiek przewyższa

W 1988 roku badacz Hans Moravec sformułował kontrintuicyjną obserwację: to, co jest trudne dla człowieka, jest łatwe dla AI, i odwrotnie.

Konkretne przykłady w ubezpieczeniach:

AI przewyższa w:

  • Przetwarzaniu 10 000 faktur w 30 sekund
  • Wykrywaniu niespójności w zgłoszeniu szkody
  • Identyfikowaniu potencjalnych schematów oszustw (628 milionów euro wykrytych w 2024 r., czyli +35% vs 2023 według danych branżowych)
  • Proponowaniu kwoty odszkodowania na podstawie 50 000 podobnych przypadków

Człowiek przewyższa w:

  • Zrozumieniu, że osoba starsza w izolacji potrzebuje uspokojenia przed jakąkolwiek procedurą
  • Wykryciu, że klient z niepełnosprawnością potrzebuje dostosowanego formatu komunikacji
  • Rozstrzyganiu przypadków granicznych, gdzie dwie zasady umowne są w konflikcie
  • Towarzyszeniu z empatią rodzinie po poważnej szkodzie

Problem wielu automatyzacji? Odwracają tę logikę. Wysyłają „proste” przypadki (w sensie technicznym) do AI, nie pytając, czy te przypadki są „proste” w sensie ludzkim.

Szkoda w szybie? Technicznie prosta, emocjonalnie neutralna. Idealna do automatyzacji.

Szkoda komunikacyjna z lekkim obrażeniem? Technicznie również prosta, ale emocjonalnie naładowana. Osoba w szoku po wypadku może nie być gotowa do interakcji z chatbotem, choćby był najwydajniejszy.

Projektowanie, które godzi AI i empatię

Odnoszące sukcesy organizacje nie pytają „Czy możemy zautomatyzować ten przypadek?” ale „Czy ten przypadek zasługuje na interwencję człowieka od początku?

Krzyżują dwa kryteria:

  1. Złożoność techniczna (czy AI może obsłużyć?)
  2. Ładunek emocjonalny (czy ubezpieczony potrzebuje natychmiastowej empatii?)

Daje to prostą macierz:

 Niski ładunek emocjonalnyWysoki ładunek emocjonalny
Niska złożoność✅ Pełna automatyzacja⚠️ Automatyzacja + łatwe wyjście
Wysoka złożoność⚠️ Współpraca AI-człowiek🚫 Człowiek od początku

Przykłady:

  • Szkoda w szybie (niska złożoność + niskie emocje) → pełna automatyzacja
  • Szkoda komunikacyjna bez obrażeń (niska złożoność + średnie emocje) → automatyzacja z bardzo widocznym wyjściem
  • Szkoda komunikacyjna z obrażeniami ciała (średnia złożoność + wysokie emocje) → kierowanie do człowieka od początku
  • Śmierć ubezpieczonego (wysoka złożoność + wysokie emocje) → wyłącznie człowiek

Co potwierdzają dane

Liczby z sektora potwierdzają to podejście:

  • Badanie Capgemini pokazuje, że automatyzacja redukuje czasy przetwarzania o 30% średnio, ale tylko gdy jest stosowana do właściwych przypadków.
  • Ale według Deloitte, 96% ubezpieczycieli przyspieszających swoją transformację cyfrową przyznaje, że główną przeszkodą nie jest technologia, to akceptacja zespołów i klientów.

Udana automatyzacja nie zastępuje człowieka. Uwalnia go do tego, co robi najlepiej.

💡 Kluczowe wnioski

Efekt domyślny pokazuje, że dwie identyczne ścieżki mogą dawać radykalnie różne wyniki. 4 złote zasady: prezentuj automatyzację jako naturalną ścieżkę, uczyń wyjście łatwym, wyjaśniaj bez zatapiania, rozpoznaj, kiedy człowiek jest niezbędny. Paradoks Moraveca przypomina nam, że AI przewyższa w złożoności technicznej, człowiek w empatii i ocenie kontekstowej. Dobre projektowanie godzi oba.

Wymiar 3: Transformacja zawodów

Ramy prawne i projektowanie behawioralne są niezbędne. Ale nie wystarczają. Trzeci, często niedoceniany wymiar to transformacja zawodów, która towarzyszy automatyzacji.

Ukryty koszt status quo

Dziś likwidator szkód spędza średnio 70% swojego czasu na zadaniach administracyjnych: wprowadzaniu danych, weryfikacji zgodności, wnioskach o dodatkowe informacje, śledzeniu standardowych procedur.

Ta praca jest konieczna. Ale nie jest ani satysfakcjonująca, ani wyróżniająca.

Gorzej: generuje to, co specjaliści nazywają „brown-out” — tę utratę sensu związaną z powtarzalnym wykonywaniem zadań postrzeganych jako odłączone od prawdziwego celu zawodu.

Objawy? Chroniczne zmęczenie, cynizm, wysoka rotacja. Koszt? Zastąpienie doświadczonego likwidatora często kosztuje ponad 50% jego rocznej pensji, nie licząc utraty wiedzy biznesowej i wpływu na jakość obsługi.

Model Centaur: AI + Człowiek, nie AI vs Człowiek

Dobrze zaprojektowana automatyzacja oferuje wyjście ku górze. Nie likwiduje miejsc pracy: je transformuje.

Termin „model Centaur” pochodzi z szachów. W 1997 roku Deep Blue pokonuje Kasparowa. Koniec historii? Nie. Początek nowej ery: „Centaur Chess”, gdzie człowiek wspomagany przez AI pokonuje zarówno samego człowieka, JAK I samą AI.

Przeniesione na ubezpieczenia, daje to:

AI przejmuje (70-80% wolumenu):

  • Automatyczne zbieranie i weryfikację danych
  • Pierwszy poziom analizy i kategoryzacji
  • Wykrywanie anomalii i oszustw
  • Kompletne przetwarzanie prostych szkód (< 500€)

Likwidator koncentruje się na (20-30% wolumenu, ale 80% wartości):

  • Wsparciu złożonych lub emocjonalnie naładowanych sytuacji
  • Negocjacjach w wrażliwych sporach
  • Dogłębnej analizie nietypowych akt
  • Decyzjach wymagających kontekstowej oceny i empatii

Rezultat? Zamiast przetwarzać 50 prostych spraw dziennie z małą satysfakcją, likwidator obsługuje 10 złożonych spraw z rzeczywistym wpływem.

Trzy mierzalne korzyści

Gdy ta transformacja jest dobrze przeprowadzona, pojawiają się trzy wyraźne korzyści:

1. Dla ubezpieczonych: szybkość + jakość

Proste sprawy są przetwarzane w minuty zamiast dni. Złożone sprawy korzystają z uwagi eksperta, a nie przeciążonego administratora.

Rezultat: według Capgemini, 30% redukcji czasów przetwarzania średnio, z równoczesną poprawą satysfakcji klientów.

2. Dla pracowników: odnaleziony sens

Uwolnieni od powtarzalnych zadań, likwidatorzy odkrywają na nowo sens swojego zawodu. Nie są już „przetwarzaczami formularzy”, ale doradcami, negocjatorami, ekspertami.

Cenione kompetencje się zmieniają: inteligencja emocjonalna, ostra ekspertyza techniczna, zdolność analizy w niejednoznaczności.

Kilku ubezpieczycieli, którzy przeprowadzili tę transformację, raportuje znaczący spadek rotacji i poprawę atrakcyjności zawodów wśród młodych talentów.

3. Dla przedsiębiorstwa: efektywność + wyróżnienie

Automatyzacja redukuje koszty operacyjne (mniej błędów, mniej ponownych wprowadzeń, mniej straconego czasu). Ale przede wszystkim tworzy trudną do skopiowania przewagę konkurencyjną: doskonałe doświadczenie klienta.

Każdy może kupić tę samą technologię. Ale dobrze ją wdrożyć — z odpowiednim projektowaniem behawioralnym, odpowiednią segmentacją i odpowiednią transformacją zawodów — to inna historia.

3 błędy, które prowadzą do porażki

Jeśli korzyści są jasne, dlaczego tak wiele projektów zawodzi? Trzy błędy powtarzają się systematycznie:

Błąd 1: Wiara, że technologia wystarczy

Wdrażanie chatbota bez przemyślenia ścieżki klienta to jak kupowanie samochodu wyścigowego i jeżdżenie po polnej drodze. Technologia to tylko narzędzie. To projektowanie ścieżki robi różnicę.

Błąd 2: Zaniedbywanie zarządzania zmianą

Automatyzacja głęboko transformuje zawody. Jeśli pracownicy nie są przeszkoleni, wspierani, uspokajani, będą się opierać — świadomie lub nie. I mają rację: nikt nie akceptuje tego, czego nie rozumie.

Zarządzanie zmianą to:

  • Wyjaśnianie dlaczego automatyzujemy (nie po to, by likwidować miejsca pracy, ale by je waloryzować)
  • Szkolenie w zakresie nowych narzędzi i oczekiwanych nowych kompetencji
  • Angażowanie zespołów w projektowanie i ciągłe doskonalenie
 

Błąd 3: Automatyzowanie bez rozeznania

Nie wszystko można automatyzować w ten sam sposób. Macierz złożoność/emocje widziana wyżej to nie tylko koncepcja teoretyczna: to operacyjne narzędzie decyzyjne.

Automatyzowanie szkody komunikacyjnej z obrażeniami ciała w taki sam sposób jak szkody w szybie to podejmowanie poważnego ryzyka dla satysfakcji klienta i reputacji.

💡 Kluczowe wnioski

Automatyzacja głęboko transformuje zawody. Model Centaur (AI + Człowiek) uwalnia pracowników od zadań administracyjnych, aby przekierować ich na ekspertyzę i relacje z klientem. Trzy korzyści: szybkość + jakość dla ubezpieczonych, odnaleziony sens dla pracowników, efektywność + wyróżnienie dla przedsiębiorstwa. Trzy błędy do uniknięcia: wiara, że technologia wystarczy, zaniedbywanie zarządzania zmianą, automatyzowanie bez rozeznania.

Podsumowanie: Automatyzacja jako środek, człowiek jako cel

Na końcu tej podróży jedna rzecz jest jasna: pytanie to już nie „czy automatyzować?” ale „jak automatyzować inteligentnie?

Technologie są dostępne. Ramy regulacyjne są ustanowione. Zasady behawioralne są udokumentowane.

Co robi różnicę między sukcesem a porażką? Trzy elementy:

  1. Poszanowanie ram prawnych — RODO i AI Act to nie przeszkody, lecz bariery ochronne chroniące ubezpieczycieli i ubezpieczonych. Zgodność przez projektowanie jest bardziej efektywna i mniej kosztowna niż wymuszona zgodność.
  2. Zastosowanie nauki behawioralnej — Efekt domyślny może potroić adopcję bez zmiany technologii. Przejrzystość i możliwość eskalacji tworzą zaufanie. Te zasady nie są kosmetyczne: są decydujące.
  3. Skoncentrowanie na człowieku — Automatyzacja ma sens tylko wtedy, gdy uwalnia człowieka do tego, co robi najlepiej. Paradoks Moraveca nam przypomina: AI przewyższa w złożoności technicznej, człowiek w empatii i ocenie kontekstowej.
 

W ubezpieczeniach jutra luksusem nie będzie ani absolutna szybkość, ani maksymalna automatyzacja. Będzie to trafność: bycie wspomaganym przez maszynę, gdy jest to efektywne, bycie towarzyszonym przez eksperta człowieka, gdy jest to konieczne.

Między tymi dwoma ekstremami wszystko jest kwestią projektowania. Projektowania, które szanuje prawo, opiera się na nauce i umieszcza człowieka — ubezpieczonego i pracownika — w centrum.

To właśnie oznacza automatyzować bez dehumanizacji.

Źródła i Bibliografia

Badania i Raporty Branżowe

Bain & Company (2023)
“Customer Experience in Insurance: The Critical Role of Claims”
https://www.bain.com/insights/topics/customer-experience/

Capgemini (2024)
“World Insurance Report 2024”
https://www.capgemini.com/insights/research-library/world-insurance-report/

Deloitte (2024)
“Insurance Industry Outlook”
https://www2.deloitte.com/us/en/pages/financial-services/articles/insurance-industry-outlook.html

Forrester Research (2023)
“The State of Customer Experience in Insurance”
https://www.forrester.com/research/

Insurance Nexus (2024)
“Claims Processing Benchmark Study”
https://www.insurancenexus.com/research/

Dane branżowe (2024)
Roczny raport o wykrywaniu oszustw ubezpieczeniowych
Różne stowarzyszenia branżowe

Badania Akademickie

Johnson, E. J., & Goldstein, D. G. (2003)
“Do Defaults Save Lives?”
Science, 302(5649), 1338-1339.
https://doi.org/10.1126/science.1091721

Moravec, H. (1988)
“Mind Children: The Future of Robot and Human Intelligence”
Harvard University Press

Ramy Regulacyjne Europejskie

Rozporządzenie (UE) 2024/1689 (AI Act)
https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX:32024R1689

Rozporządzenie (UE) 2016/679 (RODO) – Artykuł 22
https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX:32016R0679

Polskie regulacje

Ustawa o ochronie danych osobowych (implementacja RODO)
Dz.U. 2019 poz. 1781
https://isap.sejm.gov.pl/

Urząd Ochrony Danych Osobowych
Wytyczne dotyczące automatycznego podejmowania decyzji
https://uodo.gov.pl/

Udostępnij

Chcesz omówić swój projekt automatyzacji?

Skontaktuj się z naszymi ekspertami w celu spersonalizowanej oceny Twoich ścieżek i planu działania dostosowanego do Twojego kontekstu.

Black Friday, fêtes, soldes ou pics imprévus : Armatis vous aide à gérer les volumes critiques, adapter vos ressources et préserver la qualité client.

Rejoignez les leaders qui font confiance à notre expertise multilingue et technologique.