Abgesehen von den Opfern und den Verlusten in Milliardenhöhe bedeutet die Zunahme von KI-gesteuertem Betrug, dass Banken, FinTechs und Zahlungsanbieter über Risiken, Haftung und Echtzeit-Geldflüsse nachdenken müssen.
Betrüger nutzen dieselben Geheimdiensttools, die den modernen Handel vorantreiben, um die Geschwindigkeit, das Ausmaß und die Erfolgsquote von Angriffen zu erhöhen. Das Ergebnis ist eine immer größer werdende Kluft zwischen der Geschwindigkeit, mit der sich Betrug entwickelt, und der langsamen Reaktion traditioneller Rückerstattungs- und Haftungsrahmen.
Rückerstattungs- und Rückgaberegeln sind nicht für KI-Betrug konzipiert
Diese schnellere und anpassungsfähigere Bedrohungsumgebung hat eine wachsende Diskrepanz zwischen den traditionellen Rückerstattungsberechtigungsregeln und der Realität von KI-gesteuertem Betrug aufgedeckt. In der Vergangenheit entschieden Banken über Rückerstattungen auf der Grundlage statischer Kriterien, die an die Artwork der Transaktion, die Kundenhistorie oder eine manuelle Überprüfung gebunden waren.
Doch jetzt, da sich der Betrug in Richtung einer schnellen Kompromittierung von Anmeldedaten und einer unbefugten Nutzung verlagert, geraten diese Rahmenbedingungen unter Druck.
Institutionen berichten, dass Betrug nicht mehr nur ein Drawback finanzieller Verluste ist, wie im PYMNTS Intelligence detailliert beschrieben.Stand der Betrugs- und Finanzkriminalität in den Vereinigten Staaten im Jahr 2025” Bericht im Auftrag von Block.
Dem Bericht zufolge sagen 50 % der Finanzinstitute, dass Betrug die Kundentreue untergräbt, 44 % berichten über Marken- und Reputationsschäden und 48 % nennen entgangene Geschäftsmöglichkeiten.
Werbung: Scrollen Sie, um fortzufahren
Diese vertrauensbasierten Konsequenzen verstärken den Druck, Rückerstattungsentscheidungen schnell und konsequent zu treffen, insbesondere wenn Verbraucher eine sofortige Lösung erwarten und Gelder sofort zwischen Konten übertragen werden können.
KI-gesteuerte Betrügereien nehmen kanalübergreifend zu
Betrüger nutzen künstliche Intelligenz nun als Waffe bei Betrügereien, die auf Deepfakes, Identitätsdiebstahl und der Ausbeutung personenbezogener Daten basieren. Diese Angriffe tragen direkt zur Zunahme des Betrugs durch nicht autorisierte Parteien bei, der mittlerweile 71 % aller Betrugsvorfälle und Dollarverluste ausmacht, und kehrt damit das Muster des letzten Jahres um, bei dem Manipulationen durch autorisierte Parteien häufiger vorkamen.
Die Daten von Block und PYMNTS Intelligence zeigen, dass die Kompromittierung von Anmeldedaten, Kontoübernahmen und Betrügereien mit Identitätsdiebstahl stark zunehmen, wobei Betrug im digitalen Zahlungsverkehr auf Dollarbasis bis zu 20,3 % der gesamten Betrugsverluste ausmacht.
Diese Muster zeigen, wie KI die Fähigkeit verstärkt, legitime Identitätssignale nachzuahmen oder große Angriffsserien zu automatisieren, die statische Kontrollen umgehen.
Die sofortige Geldbewegung macht die Haftung zu einem Echtzeitproblem
Die Verbreitung von Sofortzahlungen hat diese Spannungen noch verschärft. Mittelflüsse in Echtzeit bedeuten, dass Institute die Transaktion vor der Abwicklung „bewerten“ müssen, und nicht (manchmal Stunden) später, wie es bisher üblich battle.
Der betriebliche Druck und die Herausforderung, dies zu tun, werden aus den Daten deutlich. Der Bericht ergab, dass 46 % der Institutionen sagen, dass schnellere Zahlungen eine der größten Herausforderungen bei der Betrugsbekämpfung darstellen, und 41 % nennen die Ausweitung der Zahlungsarten und Währungen, einschließlich Peer-to-Peer- und Sofortüberweisungen.
Dadurch werden Haftungsfragen direkt in den Transaktionsfluss integriert, wobei die Institutionen den Akteur authentifizieren, die Aktion überprüfen und feststellen müssen, ob der Kunde Anspruch auf eine Rückerstattung hätte, wenn die Transaktion später als betrügerisch eingestuft wird.
KI und Verhaltensanalysen bieten eine Verteidigungslinie
Um Schritt zu halten, modernisieren Finanzinstitute ihre Betrugsabwehr rasch. Der PYMNTS Intelligence/Block-Bericht zeigt, dass Verhaltensanalysen inzwischen von 70 % der Institutionen genutzt werden, während maschinelles Lernen von 61 % genutzt wird.
Diese Systeme untersuchen Verhaltenssignale, die für Betrüger selbst mit KI-Instruments nur schwer zu fälschen sind. Geräte-Fingerprinting, Geschwindigkeitsprüfungen, Transaktionskontext und Verhaltensbasislinien helfen dabei, festzustellen, ob eine Transaktion mit den historischen Mustern des legitimen Kunden übereinstimmt.
Der Bericht zeigt auch, wie eingebettete KI die Entscheidungsfindung verändert. Siebzig Prozent der Institutionen geben an, dass maschinelles Lernen ihnen hilft, gleichzeitig proaktive und reaktive Strategien auszubalancieren, und 25 % sagen, dass dadurch ihre Abwehrmaßnahmen überwiegend proaktiver werden.
Dies spiegelt den Wandel hin zur Echtzeiterkennung über Instantaneous Rails wider, bei dem das Ziel darin besteht, betrügerische Versuche abzufangen, bevor Gelder das Konto verlassen.
Diese Schritte zeigen die Erkenntnis, dass manuelle und regelbasierte Eingriffe eine schnelle Rückerstattungs- und Haftungsfeststellung für sofortige Transaktionen nicht unterstützen können.
Die Erwartungen an die Betrugsbekämpfung ändern sich schnell. Schnellere Zahlungen verkürzen die Zeit, die Institutionen benötigen, um zu erkennen, zu untersuchen und zu entscheiden, ob ein Kunde eine Rückerstattung erhalten sollte. Künstliche Intelligenz und Verhaltensanalysen lösen dieses Drawback, indem sie die Identitätssicherung verbessern und frühere Signale für abnormale Aktivitäten ermöglichen.
Institutionen, die ihre Abwehrmaßnahmen modernisieren, reduzieren nicht nur Betrugsverluste, sondern stärken auch das Vertrauen der Kunden. Der Weg nach vorn ist klar: Zahlungen in Echtzeit erfordern Betrugsinformationen in Echtzeit, und die Institutionen, die KI tief in die Risikobewertung, Identitätsprüfung und Rückerstattungsverwaltung integrieren, werden besser in der Lage sein, Haftungsrisiken einzudämmen und Vertrauen aufrechtzuerhalten.








Discussion about this post