
Dwa towarzystwa ubezpieczeniowe wdrażają tę samą technologię AI do automatyzacji zarządzania szkodami. Ten sam algorytm, ten sam budżet, ta sama ambicja.
Sześć miesięcy później pierwsze osiąga 20% adopcji przy spadającej satysfakcji klientów. Drugie osiąga 60% adopcji ze wzrostem wskaźnika NPS.
Co się zmieniło? Nie technologia. Projektowanie ścieżki klienta.
Ta różnica nie jest anegdotyczna. Badanie Insurance Nexus pokazuje, że tylko 22% ubezpieczycieli uważa swoje procesy obsługi szkód za „najlepsze w klasie”, podczas gdy 87% ubezpieczonych (według Bain & Company) uznaje „doświadczenie związane ze szkodą” za decydujące dla swojej lojalności. Na rynku, gdzie pozyskanie nowego klienta kosztuje pięć razy więcej niż utrzymanie istniejącego, to równanie zmienia wszystko.
Jednak wielu ubezpieczycieli nadal automatyzuje, koncentrując się wyłącznie na efektywności operacyjnej, zaniedbując trzy wymiary krytyczne dla sukcesu: ramy prawne, zachowania ludzkie i transformację zawodów.
Ten artykuł eksploruje te trzy wymiary i pokazuje, jak odnoszące sukcesy organizacje nie pytają „jak zautomatyzować więcej”, ale „jak zautomatyzować lepiej”.
Wiele organizacji waha się przed automatyzacją z obawy przed sankcjami. Ten strach jest uzasadniony, ale nie powinien paraliżować. Europejskie ramy regulacyjne są surowe, ale wykonalne.
Europejskie rozporządzenie w sprawie sztucznej inteligencji, które weszło w życie 1 sierpnia 2024 r., klasyfikuje systemy AI według poziomu ryzyka. W przypadku ubezpieczeń sytuacja jest jasna: ocena ryzyka i wycena w ubezpieczeniach na życie i zdrowotnych są klasyfikowane jako systemy wysokiego ryzyka.
Ta klasyfikacja nakłada trzy główne obowiązki: pełną przejrzystość funkcjonowania algorytmu, identyfikowalność każdej decyzji oraz ocenę wpływu na prawa podstawowe.
Sankcje? Do 30 milionów euro lub 6% światowego rocznego obrotu (zgodnie z europejskim rozporządzeniem AI Act), w zależności od tego, która kwota jest wyższa.
Ale rutynowe zarządzanie szkodami nie jest automatycznie klasyfikowane jako „wysokie ryzyko”. Szkoda w szybie obsługiwana automatycznie z możliwością odwołania? Akceptowalne. Całkowicie zautomatyzowana odmowa pokrycia bez możliwości interwencji człowieka? Problematyczne.
Od 2018 roku RODO ustanawia fundamentalną zasadę w artykule 22: każda osoba ma prawo do tego, aby nie podlegać decyzji opartej wyłącznie na zautomatyzowanym przetwarzaniu, wywołującej skutki prawne, bez możliwości interwencji człowieka.
Istnieją trzy wyjątki: wyraźna zgoda, konieczność umowna lub zezwolenie prawne. W każdym przypadku ubezpieczony musi móc uzyskać wyjaśnienie decyzji, ją zakwestionować i żądać ludzkiej weryfikacji.
Pragmatyczne rozwiązanie, które pojawia się w sektorze? Segmentacja spraw według ich złożoności i stawki, stosując zasadę „Human-in-the-loop” (nadzór ludzki w pętli decyzyjnej).
70-80% przypadków: nadzorowana automatyzacja
Szkody w szybach, standardowa pomoc drogowa, rutynowe wnioski informacyjne. AI obsługuje od początku do końca. Algorytm monitoruje anomalie i przekazuje wątpliwe przypadki człowiekowi.
Możesz: Całkowicie zautomatyzować te proste szkody (zazwyczaj < 500€), pod warunkiem zachowania możliwości odwołania i wyjaśnienia.
15-20% przypadków: współpraca AI-człowiek
Szkody ze wspólną odpowiedzialnością, wysokie kwoty, nietypowe okoliczności. AI zbiera informacje, przeprowadza wstępną analizę, sugeruje ocenę. Ale to likwidator szkód podejmuje ostateczną decyzję.
Możesz: Wykorzystać AI do wstępnej analizy i przygotowania złożonych akt, z obowiązkową ludzką decyzją.
5-10% przypadków: wyłączna interwencja człowieka
Sytuacje wrażliwe (osoby starsze w izolacji, niepełnosprawność), spory sądowe, poważne szkody ze znacznymi obrażeniami ciała. Te sprawy wymagają empatii i niuansowanej oceny od samego początku.
Musisz: Zagwarantować bezpośredni dostęp do człowieka w tych wrażliwych sytuacjach.
Ramy prawne nie blokują automatyzacji. Wyznaczają granice. Trzy bezwzględne zasady do przestrzegania:
Ta architektura to nie tylko ograniczenie. To także gwarancja jakości: złożone sprawy zasługują na ludzkie oko, proste sprawy zasługują na natychmiastowe rozwiązanie.
Europejskie ramy regulacyjne (AI Act + RODO) nie zabraniają automatyzacji, wyznaczają jej ramy. Klucz: segmentacja spraw według poziomu złożoności, zawsze zachowuj możliwość interwencji człowieka oraz gwarantuj przejrzystość i wyjaśnialność. Model „Human-in-the-loop” godzi zgodność z przepisami i efektywność.
Zgodność prawna wyznacza ramy. Ale między „tym, co jest dozwolone” a „tym, co naprawdę działa”, jest cały świat. Świat, który pomaga nam zrozumieć ekonomia behawioralna.
Rozważmy dwóch ubezpieczycieli automatyzujących swoją usługę pomocy w przypadku szkody komunikacyjnej.
Ubezpieczyciel A prezentuje swoją ścieżkę w ten sposób:
„Masz szkodę komunikacyjną. Czy chcesz skorzystać z pomocy naszego chatbota, aby przyspieszyć rozpatrzenie? [Tak] [Nie, wolę porozmawiać z doradcą]”
Ubezpieczyciel B prezentuje tę samą ścieżkę inaczej:
„Twój asystent cyfrowy przetworzy Twoje zgłoszenie natychmiast. W każdej chwili możesz porozmawiać z doradcą, klikając tutaj.”
Ta sama technologia. Ta sama zdolność przetwarzania. Ale radykalnie różne wyniki: 20% adopcji dla Ubezpieczyciela A, 60% dla Ubezpieczyciela B.
Dlaczego? Efekt domyślny.
Metaanaliza badań z ekonomii behawioralnej (Johnson & Goldstein, 2003) pokazuje, że osoby mają o 27% wyższą prawdopodobieństwo wyboru opcji prezentowanej jako „domyślna” — nawet gdy mogą ją swobodnie zmienić.
To nie jest manipulacja. To przemyślane projektowanie. W momencie stresu (szkoda), przedstawienie najszybszej opcji jako wyboru domyślnego upraszcza decyzję. Ubezpieczony zawsze zachowuje kontrolę, ale nie jest już sparaliżowany niezdecydowaniem.
I oto paradoks: użytkownicy umieszczeni w opt-out (jak Ubezpieczyciel B) czują się bardziej autonomiczni niż ci w opt-in (jak Ubezpieczyciel A). Dlaczego? Ponieważ nie musieli „uzasadniać” swojego wyboru od początku. Po prostu posunęli się naprzód, wiedząc, że mogą wyjść w każdej chwili.
Na podstawie tych ustaleń, oto cztery zasady, które różnicują automatyzację znoszącą od automatyzacji przyjmowanej.
Zasada 1: Prezentuj automatyzację jako naturalną ścieżkę, a nie opcję do uzasadnienia
❌ Złe projektowanie:
„Czy chcesz skorzystać z naszego automatycznego asystenta, czy wolisz porozmawiać z doradcą?”
✅ Dobre projektowanie:
„Twoje zgłoszenie jest przetwarzane. W każdej chwili możesz porozmawiać z doradcą.”
Różnica? Pierwsze wymusza wybór. Drugie oferuje bezpieczeństwo.
Zasada 2: Uczyń wyjście łatwym i widocznym, nie zawstydzającym
Przycisk „Porozmawiaj z doradcą” musi być:
Badanie Forrester pokazuje, że użytkownicy są 2,5 razy bardziej skłonni do korzystania z zautomatyzowanego systemu, gdy wyraźnie widzą, jak z niego wyjść.
Zasada 3: Wyjaśniaj bez zatapiania
Ubezpieczony nie chce kursu o AI. Chce wiedzieć trzy rzeczy:
Utrzymuj wyjaśnienia krótkie, konkretne, uspokajające.
❌ „Nasz system sztucznej inteligencji analizuje Twoją sprawę przy użyciu algorytmów uczenia maszynowego zgodnych z normami RODO…”
✅ „Analizujemy Twoją sprawę. Odpowiedź w 2 minuty. Możesz porozmawiać z doradcą tutaj.”
Zasada 4: Rozpoznaj, kiedy człowiek jest niezbędny
I tutaj pojawia się fascynująca koncepcja z badań nad AI: paradoks Moraveca.
W 1988 roku badacz Hans Moravec sformułował kontrintuicyjną obserwację: to, co jest trudne dla człowieka, jest łatwe dla AI, i odwrotnie.
Konkretne przykłady w ubezpieczeniach:
AI przewyższa w:
Człowiek przewyższa w:
Problem wielu automatyzacji? Odwracają tę logikę. Wysyłają „proste” przypadki (w sensie technicznym) do AI, nie pytając, czy te przypadki są „proste” w sensie ludzkim.
Szkoda w szybie? Technicznie prosta, emocjonalnie neutralna. Idealna do automatyzacji.
Szkoda komunikacyjna z lekkim obrażeniem? Technicznie również prosta, ale emocjonalnie naładowana. Osoba w szoku po wypadku może nie być gotowa do interakcji z chatbotem, choćby był najwydajniejszy.
Odnoszące sukcesy organizacje nie pytają „Czy możemy zautomatyzować ten przypadek?” ale „Czy ten przypadek zasługuje na interwencję człowieka od początku?“
Krzyżują dwa kryteria:
Daje to prostą macierz:
| Niski ładunek emocjonalny | Wysoki ładunek emocjonalny | |
|---|---|---|
| Niska złożoność | ✅ Pełna automatyzacja | ⚠️ Automatyzacja + łatwe wyjście |
| Wysoka złożoność | ⚠️ Współpraca AI-człowiek | 🚫 Człowiek od początku |
Przykłady:
Liczby z sektora potwierdzają to podejście:
Udana automatyzacja nie zastępuje człowieka. Uwalnia go do tego, co robi najlepiej.
Efekt domyślny pokazuje, że dwie identyczne ścieżki mogą dawać radykalnie różne wyniki. 4 złote zasady: prezentuj automatyzację jako naturalną ścieżkę, uczyń wyjście łatwym, wyjaśniaj bez zatapiania, rozpoznaj, kiedy człowiek jest niezbędny. Paradoks Moraveca przypomina nam, że AI przewyższa w złożoności technicznej, człowiek w empatii i ocenie kontekstowej. Dobre projektowanie godzi oba.
Ramy prawne i projektowanie behawioralne są niezbędne. Ale nie wystarczają. Trzeci, często niedoceniany wymiar to transformacja zawodów, która towarzyszy automatyzacji.
Dziś likwidator szkód spędza średnio 70% swojego czasu na zadaniach administracyjnych: wprowadzaniu danych, weryfikacji zgodności, wnioskach o dodatkowe informacje, śledzeniu standardowych procedur.
Ta praca jest konieczna. Ale nie jest ani satysfakcjonująca, ani wyróżniająca.
Gorzej: generuje to, co specjaliści nazywają „brown-out” — tę utratę sensu związaną z powtarzalnym wykonywaniem zadań postrzeganych jako odłączone od prawdziwego celu zawodu.
Objawy? Chroniczne zmęczenie, cynizm, wysoka rotacja. Koszt? Zastąpienie doświadczonego likwidatora często kosztuje ponad 50% jego rocznej pensji, nie licząc utraty wiedzy biznesowej i wpływu na jakość obsługi.
Dobrze zaprojektowana automatyzacja oferuje wyjście ku górze. Nie likwiduje miejsc pracy: je transformuje.
Termin „model Centaur” pochodzi z szachów. W 1997 roku Deep Blue pokonuje Kasparowa. Koniec historii? Nie. Początek nowej ery: „Centaur Chess”, gdzie człowiek wspomagany przez AI pokonuje zarówno samego człowieka, JAK I samą AI.
Przeniesione na ubezpieczenia, daje to:
AI przejmuje (70-80% wolumenu):
Likwidator koncentruje się na (20-30% wolumenu, ale 80% wartości):
Rezultat? Zamiast przetwarzać 50 prostych spraw dziennie z małą satysfakcją, likwidator obsługuje 10 złożonych spraw z rzeczywistym wpływem.
Gdy ta transformacja jest dobrze przeprowadzona, pojawiają się trzy wyraźne korzyści:
1. Dla ubezpieczonych: szybkość + jakość
Proste sprawy są przetwarzane w minuty zamiast dni. Złożone sprawy korzystają z uwagi eksperta, a nie przeciążonego administratora.
Rezultat: według Capgemini, 30% redukcji czasów przetwarzania średnio, z równoczesną poprawą satysfakcji klientów.
2. Dla pracowników: odnaleziony sens
Uwolnieni od powtarzalnych zadań, likwidatorzy odkrywają na nowo sens swojego zawodu. Nie są już „przetwarzaczami formularzy”, ale doradcami, negocjatorami, ekspertami.
Cenione kompetencje się zmieniają: inteligencja emocjonalna, ostra ekspertyza techniczna, zdolność analizy w niejednoznaczności.
Kilku ubezpieczycieli, którzy przeprowadzili tę transformację, raportuje znaczący spadek rotacji i poprawę atrakcyjności zawodów wśród młodych talentów.
3. Dla przedsiębiorstwa: efektywność + wyróżnienie
Automatyzacja redukuje koszty operacyjne (mniej błędów, mniej ponownych wprowadzeń, mniej straconego czasu). Ale przede wszystkim tworzy trudną do skopiowania przewagę konkurencyjną: doskonałe doświadczenie klienta.
Każdy może kupić tę samą technologię. Ale dobrze ją wdrożyć — z odpowiednim projektowaniem behawioralnym, odpowiednią segmentacją i odpowiednią transformacją zawodów — to inna historia.
Jeśli korzyści są jasne, dlaczego tak wiele projektów zawodzi? Trzy błędy powtarzają się systematycznie:
Błąd 1: Wiara, że technologia wystarczy
Wdrażanie chatbota bez przemyślenia ścieżki klienta to jak kupowanie samochodu wyścigowego i jeżdżenie po polnej drodze. Technologia to tylko narzędzie. To projektowanie ścieżki robi różnicę.
Błąd 2: Zaniedbywanie zarządzania zmianą
Automatyzacja głęboko transformuje zawody. Jeśli pracownicy nie są przeszkoleni, wspierani, uspokajani, będą się opierać — świadomie lub nie. I mają rację: nikt nie akceptuje tego, czego nie rozumie.
Zarządzanie zmianą to:
Błąd 3: Automatyzowanie bez rozeznania
Nie wszystko można automatyzować w ten sam sposób. Macierz złożoność/emocje widziana wyżej to nie tylko koncepcja teoretyczna: to operacyjne narzędzie decyzyjne.
Automatyzowanie szkody komunikacyjnej z obrażeniami ciała w taki sam sposób jak szkody w szybie to podejmowanie poważnego ryzyka dla satysfakcji klienta i reputacji.
Automatyzacja głęboko transformuje zawody. Model Centaur (AI + Człowiek) uwalnia pracowników od zadań administracyjnych, aby przekierować ich na ekspertyzę i relacje z klientem. Trzy korzyści: szybkość + jakość dla ubezpieczonych, odnaleziony sens dla pracowników, efektywność + wyróżnienie dla przedsiębiorstwa. Trzy błędy do uniknięcia: wiara, że technologia wystarczy, zaniedbywanie zarządzania zmianą, automatyzowanie bez rozeznania.
Na końcu tej podróży jedna rzecz jest jasna: pytanie to już nie „czy automatyzować?” ale „jak automatyzować inteligentnie?“
Technologie są dostępne. Ramy regulacyjne są ustanowione. Zasady behawioralne są udokumentowane.
Co robi różnicę między sukcesem a porażką? Trzy elementy:
W ubezpieczeniach jutra luksusem nie będzie ani absolutna szybkość, ani maksymalna automatyzacja. Będzie to trafność: bycie wspomaganym przez maszynę, gdy jest to efektywne, bycie towarzyszonym przez eksperta człowieka, gdy jest to konieczne.
Między tymi dwoma ekstremami wszystko jest kwestią projektowania. Projektowania, które szanuje prawo, opiera się na nauce i umieszcza człowieka — ubezpieczonego i pracownika — w centrum.
To właśnie oznacza automatyzować bez dehumanizacji.
Bain & Company (2023)
“Customer Experience in Insurance: The Critical Role of Claims”
https://www.bain.com/insights/topics/customer-experience/
Capgemini (2024)
“World Insurance Report 2024”
https://www.capgemini.com/insights/research-library/world-insurance-report/
Deloitte (2024)
“Insurance Industry Outlook”
https://www2.deloitte.com/us/en/pages/financial-services/articles/insurance-industry-outlook.html
Forrester Research (2023)
“The State of Customer Experience in Insurance”
https://www.forrester.com/research/
Insurance Nexus (2024)
“Claims Processing Benchmark Study”
https://www.insurancenexus.com/research/
Dane branżowe (2024)
Roczny raport o wykrywaniu oszustw ubezpieczeniowych
Różne stowarzyszenia branżowe
Johnson, E. J., & Goldstein, D. G. (2003)
“Do Defaults Save Lives?”
Science, 302(5649), 1338-1339.
https://doi.org/10.1126/science.1091721
Moravec, H. (1988)
“Mind Children: The Future of Robot and Human Intelligence”
Harvard University Press
Rozporządzenie (UE) 2024/1689 (AI Act)
https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX:32024R1689
Rozporządzenie (UE) 2016/679 (RODO) – Artykuł 22
https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX:32016R0679
Polskie regulacje
Ustawa o ochronie danych osobowych (implementacja RODO)
Dz.U. 2019 poz. 1781
https://isap.sejm.gov.pl/
Urząd Ochrony Danych Osobowych
Wytyczne dotyczące automatycznego podejmowania decyzji
https://uodo.gov.pl/
Skontaktuj się z naszymi ekspertami w celu spersonalizowanej oceny Twoich ścieżek i planu działania dostosowanego do Twojego kontekstu.
Rejoignez les leaders qui font confiance à notre expertise multilingue et technologique.