„KI kann uns dazu bringen, selbst ethischer zu handeln“
Mehr Tempo, mehr Service, mehr Innovation versus Jobverlust, Datenmissbrauch und Cyber-Kriminalität: Künstliche Intelligenz ist auch in der Assekuranz Top-Thema. In unserer KI-Kolumne PROMPT! beziehen Experten und Entscheider Stellung. Heute: Simon Moser, CEO des Berliner Startups Muffintech.

(Foto: Muffintech)
Kann eine Künstliche Intelligenz tatsächlich moralischer handeln als wir selbst? Der Gedanke wirkt provokant – besonders in einem beratungsintensiven Beruf wie dem des Versicherungsvermittlers, in dem Neutralität und Fairness gegenüber Kunden oberstes Gebot sein sollten.
EU zieht klare Grenzen
Zunächst lohnt sich ein Blick auf die Schwächen der Technologie. Sprachmodelle wie ChatGPT oder Gemini lernen aus bestehenden Daten – und genau darin liegt ein Risiko. Enthalten diese Daten gesellschaftliche Vorurteile, Diskriminierung oder stereotype Denkmuster, dann reproduziert die KI diese. Ein bekanntes Beispiel: In frühen Bewerbungs-KI-Systemen bevorzugte ein Algorithmus männliche Bewerber, weil historische Daten suggerierten, dass Männer häufiger eingestellt wurden. Der Algorithmus „lernte“ Diskriminierung.
Der EU AI Act, der derzeit auf europäischer Ebene schrittweise in Kraft tritt, zieht hier klare Grenzen. KI darf nicht diskriminieren – weder nach Geschlecht noch nach Alter, Herkunft oder anderen geschützten Merkmalen. Wer KI-Systeme einführt, ist künftig gesetzlich verpflichtet, diese auf Fairness zu prüfen und zu dokumentieren. Für den Versicherungsvertrieb bedeutet das: Eine KI, die Tarife oder Produkte empfiehlt, muss nachvollziehbar, überprüfbar und diskriminierungsfrei funktionieren.
Mit KI gegensteuern
Doch genau darin liegt eine Chance: Während Menschen unbewusst voreingenommen sind – und das betrifft auch Vermittlerinnen und Vermittler –, lässt sich bei KI gezielt gegensteuern. Menschen neigen zu Bequemlichkeit oder Loyalität: Ein Produktgeber, den man gut kennt, wird eher empfohlen. Vielleicht auch, weil ein Vergleich arbeitsaufwendig ist oder weil es sich um einen langjährigen Partner handelt.
Ich kenne das aus eigener Erfahrung als aktiver Vermittler, als ich insbesondere im Bereich Komposit meine zwei bis drei Standardempfehlungen hatte. Solche Vorprägungen sind menschlich, aber sie sind nicht immer im besten Interesse der Kundschaft. Denn Tarife entwickeln sich weiter, neue Anbieter kommen auf den Markt und die Kundenbefürfnisse ändern sich. Eine gut trainierte, regulierte KI setzt hier an: Sie kann Hunderte Tarife vergleichen, Produktbedingungen neutral analysieren und – je nach Zielsetzung – entweder die beste Deckung zum besten Preis (im Sinne des Kunden) oder einen guten Tarif mit noch besserer Provision (vorteilhaft für den Vermittler) finden.
Eigene Haltung ehrlich prüfen
Dabei ist entscheidend, was der Mensch vorgibt: Wer die KI fragt „Was ist das Beste für meinen Kunden?“, bekommt eine andere Antwort als jemand, der nach der höchsten Abschlusswahrscheinlichkeit oder der höchsten Provision fragt. KI zwingt uns damit zu einer unbequemen, aber ehrlichen Auseinandersetzung mit der eigenen Haltung. Wollen wir wirklich neutral beraten? Oder suchen wir nach einem Alibi für bestehende Präferenzen? GenAI kann ethischer handeln als Menschen – wenn wir sie entsprechend programmieren, kontrollieren und einsetzen. Oder, präziser: KI kann uns dazu bringen, selbst ethischer zu handeln. Sie kann blinde Flecken aufdecken, Bequemlichkeit entlarven und helfen, Entscheidungen faktenbasiert zu treffen. Und das ohne größeren Aufwand als in der Vergangenheit, ganz im Gegenteil. Ob wir diese Chance nutzen, liegt letztlich in unserer Hand.
Weitere Artikel

Erfolgreicher mit Social Media

„KI hilft, Cyber-Bedrohungen besser zu verstehen“
