Штучний інтелект, Deepfake та криза довіри у фінансовому комплаєнсі: частина 1
Протягом десятиліть фінансові інституції будували систему довіри на простій, але надзвичайно стійкій логіці: якщо особа присутня фізично або може підтвердити свою ідентичність за допомогою документа й обличчя, вона існує. Якщо документ справжній, а зображення відповідає власнику — ідентифікація відбулася. Цей принцип, трансформуючись від паперових паспортів до електронних підписів, пережив кілька технологічних революцій і здавалося, що цифровізація остаточно вирішила проблему автентичності.
Однак у середині третього десятиліття XXI століття з’ясувалося, що сама категорія “візуального доказу” втратила абсолютність. Те, що ми бачимо, більше не є гарантією реальності. Зображення, голос, міміка, мікрорухи — усе це може бути синтетично відтворене алгоритмом із точністю, яка перевищує можливості людського сприйняття. Якщо раніше маніпуляція вимагала складного монтажу та технічних навичок, сьогодні достатньо доступу до відкритої генеративної моделі та кількох хвилин навчальних даних.
Цифрова трансформація фінансового сектору відбувалася під гаслом зручності та інклюзивності. Віддалений онбординг, мобільні додатки, відеоверифікація, біометрія — усе це зменшувало бар’єри входу, пришвидшувало доступ до фінансових послуг, розширювало охоплення клієнтів. Банки та фінтех-компанії активно впроваджували системи розпізнавання обличчя, аналізу голосу, поведінкової біометрії. Регулятори підтримували такі зміни, розглядаючи їх як інструмент боротьби з шахрайством і відмиванням коштів.
Проте в той самий час розвивалася й інша технологічна екосистема — генеративний штучний інтелект. Спершу вона привертала увагу як інструмент творчості та автоматизації. Але поступово стало очевидно, що ці моделі здатні відтворювати не лише текст чи зображення, а й сам феномен людської присутності. Deepfake-технології стали першим сигналом того, що візуальна достовірність більше не є ознакою істинності.
Фінансовий сектор виявився особливо вразливим. Система KYC (Know Your Clients) і AML (Anti-Money Laundering) десятиліттями ґрунтувалися на припущенні, що особу можна надійно ідентифікувати через фізичні або біометричні характеристики.
Якщо ці характеристики можна змоделювати, система втрачає фундамент. Відеоверифікація, яка ще кілька років тому вважалася найвищим стандартом дистанційної ідентифікації, більше не є абсолютним бар’єром. Алгоритми можуть синхронізувати рухи губ із текстом, імітувати реакцію на випадкові команди, відтворювати мікроміміку. Голосова автентифікація, що аналізує тембр і частотні характеристики, може бути обійдена через клонування голосу на основі кількох аудіофрагментів. Біометрія обличчя, яка спирається на геометрію та текстуру, стикається з 3D-моделями та генеративними масками. Це не просто технологічний виклик. Це криза довіри як інституційної категорії.
Фінансова система завжди функціонувала на основі презумпції достовірності підтвердженої ідентичності. Якщо банк підтвердив особу, регулятор вважає її встановленою. Якщо ідентифікація проведена відповідно до процедури, ризик вважається мінімізованим. Але що відбувається, коли сама процедура стає вразливою до алгоритмічної симуляції?
Ми вступили в епоху поствізуальної довіри. Це означає, що людське сприйняття більше не може бути фінальним арбітром автентичності. Те, що виглядає переконливо, може бути повністю синтетичним. У такій реальності система фінансового моніторингу змушена переосмислити власні підвалини.
Складність полягає в тому, що цифровізація є незворотною. Повернення до повністю фізичної ідентифікації неможливе. Фінансова інклюзія, глобальні транзакції, дистанційні сервіси — усе це залежить від технологічних рішень. Тому питання полягає не в тому, чи використовувати ШІ, а в тому, як протистояти його зловживанню.
Особливої гостроти проблема набуває у сфері протидії відмиванню коштів і фінансуванню тероризму. Організовані злочинні групи традиційно адаптуються до нових технологій швидше, ніж регулятори. Якщо раніше створення мережі підставних осіб потребувало людських ресурсів і часу, сьогодні синтетичні ідентичності можуть генеруватися масово. Deepfake-відео дозволяють проходити дистанційний онбординг без фізичної присутності. Алгоритми можуть моделювати транзакційну поведінку, що виглядає правдоподібною для автоматизованих систем скорингу.
Таким чином, ми спостерігаємо трансформацію ризику від індивідуального до системного. Проблема більше не полягає в окремому випадку шахрайства. Йдеться про зміну самої природи фінансового злочину. Він стає алгоритмічним, масштабованим і адаптивним.
У цьому контексті виникає низка фундаментальних запитань. Чи може система KYC залишатися ефективною, якщо біометричні характеристики піддаються симуляції? Чи достатньо посилити технічні протоколи, чи необхідна нова концепція довіри? Якою має бути роль регулятора в умовах, коли технологічна еволюція випереджає правове регулювання? І найголовніше — як зберегти баланс між безпекою та правом на приватність, якщо для боротьби з AI-шахрайством потрібен збір дедалі більшої кількості персональних даних?
Ця стаття розглядає ці питання у ширшому контексті глобальної трансформації фінансового середовища. На перетині AI (Artificial Intelligence) та AML формується нова регуляторна парадигма. Вона включає не лише технічні інструменти протидії deepfake, але й переосмислення правових стандартів, принципів зберігання біометрії, відповідальності за автоматизовані рішення.
Ми більше не можемо сприймати зображення як доказ. Але ми можемо створити багаторівневу систему перевірки, яка враховує контекст, поведінку, середовище та взаємозв’язки. Перехід від однофакторної автентифікації до екосистемної моделі довіри стає стратегічною необхідністю.
Архітектура AI-шахрайства у сфері KYC та AML
Ще донедавна в комплаєнс-середовищі існувала майже інтуїтивна віра в те, що системи ідентифікації “перемагають” шахраїв за рахунок технологічного ускладнення. Якщо підробляють паспорт — ми додаємо перевірку документа в реєстрах. Якщо обходять паролі — підключаємо багатофакторну автентифікацію. Якщо зростає дистанційний онбординг — застосовуємо відеоверифікацію та liveness-перевірки. Логіка була лінійною: “більше контролів = менше ризику”. Генеративний штучний інтелект зламав цю лінійність.
Проблема не лише в тому, що з’явилися нові інструменти підробки. Проблема в тому, що виникла нова архітектура злочину — така, яка сама є цифровою системою, здатною масштабуватися, навчатися на помилках і підлаштовуватися під правила комплаєнсу. Коли говорять про deepfake, часто уявляють окреме “фальшиве відео”. Але для AML-ризиків deepfake — лише видима верхівка. Під нею лежить ціла конструкція: синтетичні ідентичності, генерація документів, підміна біометрії, автоматизована соціальна інженерія, мережі “грошових мулів” і сценарії транзакційного маскування, які дедалі частіше керуються алгоритмічно.
Перший елемент цієї архітектури — синтетична ідентичність, тобто “особа”, яку система сприймає як реальну, хоча її або не існує взагалі, або вона є гібридом реальних і вигаданих атрибутів. Злочинці можуть брати частину реальних даних (наприклад, ім’я, номер телефону, фрагменти документів із витоків) і поєднувати їх із згенерованими компонентами — новим обличчям, новим голосом, новою адресною легендою, а іноді й новим “цифровим життям” у соцмережах. Під час онбордингу така “особа” не просто пред’являє документ. Вона “існує” в цифровому середовищі: має історію комунікацій, типову поведінку, відповідає на запитання служби підтримки без емоційних збоїв, проходить верифікацію та навіть може “пояснювати” джерело коштів правдоподібною мовою. Саме тут вступає другий елемент — великі мовні моделі, які здатні виробляти переконливі відповіді, листування, пояснення і навіть “психологічну” манеру, що відповідає портрету клієнта, роблячи шахрайство менш помітним у процесі взаємодії.
Статистика останніх років показує, що це вже не маргінальна проблема. За даними Sumsub, кількість виявлених deepfake-інцидентів у світі зросла в десятки разів між 2022 і 2023 роками, а у фінтех-секторі приріст інцидентів deepfake у 2023 році оцінювався на рівні близько 700% рік-до-року. Це важливо не як “страшна цифра”, а як індикатор того, що технологія перестала бути одиничним трюком і перетворилася на масштабовану практику. Те саме спостерігалося й у професійному українському аналізі впливу deepfake на фінансові технології: зростання інцидентів і вразливість цифрової ідентифікації названі одним із ключових сигналів ризику для ринку.
Третім елементом AI-шахрайства стало клонування голосу. Раніше така ідентифікація вважалась зручним і відносно стійким бар’єром, особливо в кол-центрах та у процедурах підтвердження транзакцій. Проте кримінальні актори пристосувалися швидко: вони беруть короткі уривки аудіо з публічних виступів, інтерв’ю, відео в соцмережах — і отримують модель голосу, яка звучить переконливо. Найнебезпечнішим є те, що голос стає не лише інструментом доступу, а й інструментом управління людьми. FBI прямо попереджало про зростання випадків, коли злочинці використовують AI для створення переконливих голосових і відеоповідомлень та електронних листів, щоби реалізувати шахрайські схеми проти людей і бізнесу. У такій логіці людський фактор — не “слабка ланка”, як це часто кажуть; він стає точкою прикладання високоточної маніпуляції, підсиленої AI.
Четвертий елемент — генерація або “доведення до оригіналу” документів. Тут небезпека особлива: фінансові установи багато років інвестували у розпізнавання документів, перевірку форматів, ознак підробки, перехресні запити до баз. Але генеративні моделі зрушили гру: документ тепер може бути синтезований так, щоб виглядати “правильним” саме для алгоритму перевірки. Не обов’язково робити грубу підробку — достатньо зробити документ, який пройде автоматичні сигнали, а людина-оператор побачить “узгодженість”. Sumsub окремо звертало увагу, що паралельно з ростом deepfake-шахрайства зростає й синтетичне шахрайство з документами (зокрема, у 2024–2025 роках вони публікували дані про значний приріст deepfake-шахрайства та зростання синтетичних документів у своїх агрегованих зрізах).
П’ятий елемент — найпідступніший: автоматизована поведінкова симуляція. Якщо раніше комплаєнс-скоринг та антифрод-системи ловили “неприродну” поведінку (надто швидкі кліки, повторювані шаблони, нетипові маршрути), то тепер поведінку можна змоделювати. AI-агенти здатні імітувати “людську” нерівномірність — змінювати темп дій, робити паузи, помилятися, ставити уточнювальні запитання. Дистанційний онбординг у такому разі перетворюється на театр: система бачить “людину”, чує “голос”, отримує “документ” і спостерігає “поведінку”, яка не тригерить правила.
Найяскравіший приклад того, як синтетична реальність впливає на ухвалення рішень, — випадок у Гонконгу, де фінансова працівниця компанії переказала близько 200 млн гонконгських доларів після відеоконференції, на якій “керівники” виглядали та звучали переконливо. Поліція повідомляла, що шахраї видавали себе за старших посадових осіб компанії, використовуючи deepfake-відеоконференцію. Суть цього кейсу не лише у сумі. Він демонструє, що навіть “захисна порада” на кшталт “перевірте по відеодзвінку” може стати ілюзорною без додаткових протоколів довіри.
Саме на стику цих елементів формується те, що можна назвати AI-driven laundering architecture — архітектура відмивання коштів, де AI підтримує не один етап, а весь життєвий цикл схеми. Злочин більше не виглядає як одинична дія. Він виглядає як конвеєр: створення ідентичності, проходження онбордингу, створення мережі рахунків, “розігрів” профілю маленькими операціями, далі — нарощування обсягів, дроблення транзакцій, переведення у криптоактиви, шарування через кілька юрисдикцій, конверсія і вихід у фіат. Кожен етап може бути автоматизований, а рішення — оптимізовані на основі того, як саме реагує конкретна установа й які правила спрацьовують.
Ця архітектура вже має свою “соціальну інфраструктуру”. У звітах про загрози біометричним системам фіксується зростання спільнот і груп, які обмінюються знаннями та інструментами для атак на віддалену ідентифікацію: зокрема, iProov вказувало на масштабування інструментів face-swap, використання віртуальних камер і емуляторів, а також суттєве зростання атак, спрямованих на обхід liveness-контролів. Цінність таких джерел у тому, що вони описують не абстрактні “ризики”, а повторювані моделі атак, які стають масовими через доступність інструментів.
Коли з’являється така масовість, AML-ризик змінює характер. Традиційно фінансовий моніторинг спирався на ризик-орієнтований підхід: ми виявляємо підозрілі моделі, сегментуємо клієнтів, посилюємо EDD там, де ризик високий. Але AI-архітектура робить ризик “плинним”. Синтетичний клієнт може починати як низькоризиковий і дуже швидко перетворюватися на транзитний вузол. А мережа може бути розподіленою так, що кожен окремий рахунок виглядатиме “нормально”, тоді як сукупність рахунків — це єдина машина шарування.
Окрему роль тут відіграють так звані money muling networks, які Sumsub прямо включало до переліку ключових загроз ландшафту ідентифікаційного шахрайства поряд із AI-фродом, фейковими ID та захопленням акаунтів. У такій мережі deepfake-ідентичності потрібні не завжди для “головного” рахунку: інколи вони потрібні для швидкого розширення периферії, створення “буферів”, через які проходять кошти, перш ніж піти далі. Це означає, що боротьба з deepfake в KYC не є “окремою задачею” для онбордингу; вона стає частиною загальної задачі руйнування мережевого ефекту, на якому тримається відмивання.
Нарешті, варто проговорити одну неприємну річ: у багатьох організаціях досі зберігається психологічна ілюзія, що проблему можна вирішити “ще одним технічним контролем”. Але на практиці система повинна навчитися мислити як супротивник: розуміти, що атака може бути багатокроковою, що доказ може бути синтетичним, що людина може бути обманута цілою сценою, і що злочинці будуть “навчатися” на відмовах. Саме тому в дискусіях про майбутнє комплаєнсу дедалі частіше з’являються концепти на кшталт безперервної ідентифікації (continuous identity), контекстної довіри та багаторівневого підтвердження (layered assurance), де автентичність не виводиться з одного сигналу — відео чи документа — а складається з узгодженості багатьох сигналів у часі.
Далі логічно перейти від загальної “архітектури” до того, як саме ця архітектура вже проявляється в юрисдикціях із різними моделями регулювання та різною цифровою зрілістю, і чому відповіді ЄС, США, Сінгапуру та ОАЕ мають спільну рису: вони дедалі більше зводяться до побудови систем довіри, які здатні виживати у світі, де штучний інтелект уміє імітувати людину.
Європейський Союз: регуляторний тиск та нові стандарти безпеки
Європа входила в епоху дистанційної ідентифікації з відчуттям технологічної впевненості. Ринок e-KYC зростав, банки змагалися швидкістю онбордингу, фінтех-сектор ставав дедалі “безпаперовішим”, а відеоверифікація поступово перетворювалася з опції на майже стандарт. Але саме в Європі стало особливо помітно, як швидко генеративний ШІ здатен перевернути звичні уявлення про те, що таке “доказ” ідентичності.
Показовою є не лише статистика приватних провайдерів верифікації, які фіксують вибухове зростання deepfake-інцидентів у 2023–2025 роках, а й тональність публічних сигналів від інституцій. Коли центральний банк країни ЄС вимушений публічно попереджати населення про шахрайські “виступи” свого очільника у фальшивих відео та статтях, це вже не локальна історія про інтернет-фейк, а симптом системної проблеми довіри. Наприкінці лютого 2026 року Банк Італії офіційно попередив про хвилю шахрайських матеріалів із “участю” губернатора Фабіо Панетти у нібито телевізійних ефірах та “рекомендаціях” інвестиційних продуктів, наголосивши, що контент є повністю сфабрикованим і в ряді випадків створеним із застосуванням deepfake-технік, та повідомив про звернення до судових органів. Це важливо, бо демонструє: deepfake у ЄС — це вже не тільки про KYC-обхід, а про масове шахрайство, репутаційні атаки й маніпуляцію довірою до інституцій, яка є базовою для фінансового ринку.
Європол, у свою чергу, останніми роками фактично закріплює в офіційному дискурсі думку, що генеративний ШІ змінює “ДНК” організованої злочинності. В оцінці загроз ЄС (EU-SOCTA 2025) правоохоронці описують як доступність AI-інструментів знижує бар’єр входу в цифрові злочини та сприяє створенню синтетичних медіа й фальшивих ідентичностей. А в профільному огляді кіберзагроз (IOCTA 2025) Європол прямо пов’язує “ринок вкрадених даних” із тим, що ці дані “озброюються” у AI-підтриманих атаках — зокрема для генерації deepfake, синтетичних медіа та фальшивих ідентичностей. Для комплаєнсу це означає просту, але неприємну істину: зростає не лише кількість підробок, а й якість “підробленої реальності”, яка тепер виробляється на промисловому рівні та підживлюється витоками персональних даних.
Цей тиск на практику KYC у країнах ЄС накладається на тиск регуляторний. AI Act, який набрав чинності 1 серпня 2024 року, запроваджує ризик-орієнтовану рамку регулювання систем штучного інтелекту і для фінансового сектору ключовим є те, що біометрична ідентифікація та низка рішень, які впливають на права людей, відносяться до високоризикових доменів. Європейська Комісія у своїх офіційних роз’ясненнях підкреслює поетапність застосування: частина норм застосовується раніше, а значний блок вимог для високоризикових систем стартує з 2 серпня 2026 року (із подальшими етапами у 2027 році). Саме тому європейські команди комплаєнсу, ризик-менеджменту та кібербезпеки опинилися у “коридорі підготовки”, де потрібно водночас посилювати протидію deepfake і не порушити принципи, закладені у новому регулюванні: управління ризиками, якість даних, технічна документація, прозорість, людський нагляд, аудитованість.
Водночас є важливий нюанс, який в ЄС часто недооцінюють на старті: регуляторний ландшафт тут не є статичним. Після входу AI Act в силу у 2024 році у 2025-му почали звучати публічні заклики з боку частини індустрії “пригальмувати” застосування деяких вимог і в медіа та інформагенціях фіксувалися дискусії щодо можливих відтермінувань або “полегшення” окремих режимів для високоризикових систем. Для практиків це створює подвійний ризик: не лише технологічний (шахраї рухаються швидше), а й управлінський (організації можуть відкладати модернізацію, сподіваючись на “зміщення дедлайнів”, але атаки не чекають регуляторних компромісів).
Паралельно з AI Act, у фокусі залишається й “класичний” європейський антивідмивний контур. Коли говорять “AMLD6”, часто мають на увазі не стільки чергові правила онбордингу, скільки кримінально-правову рамку: Директива (ЄС) 2018/1673 встановлює мінімальні правила щодо визначення злочинів та санкцій у сфері відмивання грошей і покликана зменшити розбіжності між країнами-членами в криміналізації та притягненні до відповідальності. У контексті deepfake це важливо тому, що AI-шахрайство швидко стає транснаціональним: одна юрисдикція може бути “вхідною точкою” для синтетичної ідентичності, інша — для шарування, третя — для конверсії й виходу. Якщо країни по-різному кваліфікують склад злочину, різною є і спроможність до спільного переслідування. AMLD6 намагається це вирівняти, але вона не створювалася під генеративний ШІ і зараз європейські правоохоронні та наглядові структури змушені “прикладати” її до нових схем.
Додатковий рівень — це суспільний вимір, який у ЄС часто відображається через парламентську аналітику. Наприклад, у матеріалі Європейського парламенту про шахрайські дзвінки в епоху генеративного AI підкреслюється, що зловмисники використовують AI для крадіжки ідентичності, фішингу, інвестиційних і рекрутингових шахрайств. Наводиться тривожний індикатор з індустрійних звітів: у 2024 році deepfake-атака могла відбуватися “кожні п’ять хвилин”. Навіть якщо такі оцінки залежать від методології конкретного дослідження, вони фіксують головне: частота й масштаб явища вийшли на рівень, який змушує державні інституції трактувати проблему як системну.
Що ж відбувається на “землі” — у банках і фінтех-компаніях ЄС під тиском цих сигналів? Відбувається поступовий зсув від віри в один “золотий контроль” до ідеї багаторівневої гарантії. Відеоверифікація не зникає, але стає лише частиною більшого ланцюга, де посилюється контроль середовища (чи камера не є віртуальною, чи це не емулятор), контроль консистентності (чи узгоджується біографічна легенда з цифровими слідами), контроль поведінки у часі (чи не є акаунт “одноразовим транзитним”) і контроль “відбитків” взаємодії (device intelligence). Те, що ще вчора здавалося надмірністю, сьогодні стає прагматикою. У цьому сенсі результати українського дослідження, де респонденти визначали репутаційні та комплаєнс-ризики deepfake як одні з найвищих для фінтех-сектору, добре резонують із європейською реальністю: саме репутація й відповідність правилам стають першими “жертвами” синтетичних атак.
Але є й другий, не менш складний фронт — правовий. Європа одночасно посилює вимоги до безпеки й до приватності. General Data Protection Regulation (EU GDPR) робить біометричні дані особливо чутливою категорією, а AI Act підтягує до них вимоги прозорості, управління ризиками та відповідальності за системи, що можуть впливати на права людини. У результаті комплаєнс-архітектура ЄС опиняється в напрузі між двома імперативами: збирати більше доказів, щоб відсікти синтетичну особу, і збирати менше даних, щоб не порушити принцип мінімізації та пропорційності. Ця напруга не є теоретичною. Вона дуже практична: кожне нове “анти-deepfake” рішення часто вимагає додаткових біометричних або поведінкових сигналів, а кожен такий сигнал підвищує юридичну складність зберігання пояснюваності.
Європейська відповідь на deepfake-ризики, таким чином, формується не як “одна директива” чи “один технічний стандарт”, а як багаторівневе притискання системи з різних боків: правоохоронні оцінки загроз (Європол), правове регулювання AI (AI Act), кримінально-правова рамка для переслідування відмивання (AMLD6) і традиційна система захисту даних (GDPR). У цій комбінації є одна спільна риса: ЄС дедалі чіткіше визнає, що цифрова ідентичність має бути не просто швидкою й зручною, а стійкою до симуляції.
Сполучені Штати Америки: еволюція Business Email Compromise в епоху генеративного ШІ
Якщо в Європі дискусія про deepfake у фінансовому секторі часто починається з теми дистанційної ідентифікації, то в Сполучених Штатах відправною точкою стала інша болюча проблема — Business Email Compromise (BEC). Ця схема існує вже понад десятиліття: зловмисники видають себе за керівника компанії або довірену особу й надсилають електронні листи з вимогою термінового переказу коштів. Протягом років BEC залишався однією з найприбутковіших форм кіберзлочинності. За даними Internet Crime Complaint Center (IC3) при ФБР, лише у 2023 році збитки від BEC та пов’язаних з ним шахрайств перевищили 2,9 млрд доларів США, що зробило цю категорію однією з найбільш фінансово руйнівних серед кіберінцидентів.
Однак саме в середині 2020-х років ця схема почала еволюціонувати. Лист більше не є єдиним інструментом. Він став лише частиною складнішої, мультимодальної атаки, у якій використовується штучний інтелект для створення переконливих голосових і відеоповідомлень. ФБР у своїх попередженнях неодноразово наголошувало, що кіберзлочинці дедалі активніше застосовують AI для генерації контенту, який імітує керівників компаній або бізнес-партнерів, з метою переконати співробітників санкціонувати перекази чи надати конфіденційну інформацію. У відповідних бюлетенях ФБР прямо зазначає випадки використання AI-клонування голосу в рамках BEC-сценаріїв, а також про ризик масштабування таких атак через доступність інструментів генеративного ШІ.
Трансформація BEC у формат deepfake-втручання змінила сам характер загрози. Якщо раніше комплаєнс-служби навчали співробітників уважно перевіряти електронні адреси, звертати увагу на помилки в тексті, а фінансові відділи впроваджували правило “подвійного підтвердження”, то тепер цього недостатньо. Атака може починатися з листа, продовжуватися телефонним дзвінком і завершуватися відеоконференцією, де “керівник” особисто підтверджує терміновість переказу.
Американський контекст особливо чутливий до таких атак з кількох причин. По-перше, великі корпорації мають складну структуру повноважень і розгалужені фінансові процедури. По-друге, бізнес-культура США традиційно орієнтована на швидкість ухвалення рішень. По-третє, широке використання відеоконференцій після пандемії COVID-19 створило новий стандарт комунікації, який став природним каналом для зловмисників.
У 2024–2025 роках низка публічних кейсів продемонструвала, що AI-клонування голосу більше не є гіпотетичною загрозою. В одному з розслідувань, оприлюднених американськими ЗМІ, співробітник фінансового департаменту отримав телефонний дзвінок від особи, яка звучала як генеральний директор компанії. Голос був настільки переконливим, що співробітник не сумнівався в автентичності, особливо враховуючи попереднє листування електронною поштою. Переказ був здійснений протягом кількох годин. Лише згодом з’ясувалося, що дзвінок був синтезований на основі публічних виступів керівника, доступних у відкритому доступі.
Те, що робить такі кейси особливо небезпечними для системи фінансового контролю — це поєднання соціальної інженерії з технологічною правдоподібністю. Соціальна інженерія завжди будувалася на психологічному тиску: терміновість, авторитет, конфіденційність. Генеративні моделі додають до цього правдоподібний аудіо- або відеоконтент, який знижує бар’єр критичного мислення. Коли співробітник бачить обличчя керівника на екрані або чує знайомий тембр голосу, раціональні запобіжники працюють гірше.
IC3 у своїх звітах підкреслює, що BEC-схеми стають дедалі складнішими, а зловмисники все частіше використовують технології для “підсилення” переконливості. Хоча не всі випадки прямо класифікуються як deepfake-інциденти, тренд очевидний: генеративний ШІ знижує витрати на атаку й підвищує її якість. Те, що раніше вимагало складного монтажу та часу, сьогодні можна реалізувати за допомогою доступних сервісів синтезу голосу.
Для AML-контексту це має прямі наслідки. Перекази, ініційовані через BEC-схеми, часто швидко дробляться та переводяться через мережу рахунків-посередників. У США ФБР неодноразово наголошувало, що гроші з BEC-шахрайств оперативно спрямовуються через mule-акаунти, після чого або виводяться готівкою, або конвертуються в криптоактиви. Таким чином, deepfake-підсилений BEC стає не лише корпоративною проблемою, а й частиною ширшої архітектури відмивання коштів.
Особливої уваги заслуговує те, що американські компанії дедалі частіше стикаються не з одиничними атаками, а з кампаніями таких атак. Злочинці можуть одночасно атакувати кілька підрозділів, використовуючи варіації одного й того ж сценарію. AI дозволяє швидко адаптувати текст і голос під конкретну компанію, посилаючись на актуальні проєкти або фінансові показники, які беруться з відкритих джерел. У результаті атака виглядає “персоналізованою”, хоча по суті є частиною масової кампанії.
Американський регуляторний контекст також еволюціонує. Хоча в США немає єдиного аналога європейського AI Act, регулятори фінансового сектору — зокрема SEC і FinCEN — дедалі частіше звертають увагу на кіберризики та внутрішні контролі. У 2023–2024 роках SEC посилила вимоги щодо розкриття інформації про кіберінциденти, що фактично стимулює компанії приділяти більше уваги управлінню ризиками, включно з deepfake-атаками. FinCEN, зі свого боку, наголошує на необхідності адаптації систем моніторингу до нових форм шахрайства.
Таким чином, у США ми спостерігаємо специфічну форму AI-driven fraud: замість фокусу на дистанційному онбордингу основний удар припадає на корпоративні фінансові процедури та внутрішні повноваження. Deepfake тут стає інструментом ескалації вже знайомої схеми BEC, підвищуючи її ефективність і зменшуючи ймовірність раннього викриття.
У ширшому вимірі це означає, що боротьба з AI-шахрайством у США неминуче виходить за межі IT-департаменту чи комплаєнс-служби. Вона потребує переосмислення корпоративного управління, процедур санкціонування транзакцій і культури перевірки. Там, де раніше достатньо було електронного підтвердження, тепер потрібні додаткові контекстні та процедурні бар’єри. І що важливо — ці бар’єри мають бути стійкими до синтетичної імітації.
У наступній частині статті ми звернемось до прикладу Сінгапуру, де держава поєднує жорсткий регуляторний підхід із високою цифровою зрілістю, і проаналізуємо, як цей фінансовий хаб реагує на хвилю синтетичних атак у сфері ідентифікації та інвестиційного шахрайства.




