AI, ризики і «неправильні правильні відповіді»: що насправді показала одна дискусія

Публікація професора Стефана Хунцікера  (Stefan Hunziker) в мережі LinkedIn, присвячений використанню штучного інтелекту для ранжування ризиків, на перший погляд виглядає як ще одна рефлексія про можливості та обмеження нових технологій. Однак реакція професійної спільноти показала, що мова йде про значно глибшу проблему, яка давно існує в ризик-менеджменті, але рідко формулюється настільки прямо. Йдеться про розрив між аналітично «правильним» результатом і його управлінською корисністю.

Ситуація, описана в пості, є показовою. ШІ ранжує ризики, визначає найбільший за фінансовим впливом, робить це методологічно чисто і логічно послідовно. З точки зору моделі — результат бездоганний. Але рада директорів не приймає його, оскільки він «не виглядає переконливим». Це формулювання насправді є дуже точним, хоча і не зовсім формалізованим. Воно означає, що отриманий результат не відповідає тому, як менеджмент сприймає реальність прийняття рішень.

Саме тут і виникає ключова теза, яку підхоплюють багато учасників дискусії: фінансовий вплив і управлінська релевантність — це не одне і те саме. Ризик може мати значний вплив на фінансовий результат, але водночас не бути об’єктом управління, якщо він не має чіткої точки прикладання зусиль, не пов’язаний із рішеннями або не перебуває в зоні реального впливу компанії. Один із узагальнених висновків, який звучить у різних формулюваннях, можна передати так: «ризик без власника, без інструменту впливу і без часової прив’язки — це не управлінська проблема, а опис невизначеності».

Частина учасників звертає увагу на те, що більшість моделей ранжування ризиків, включно з AI, оптимізують відповідь у межах однієї змінної — впливу. Але управлінське рішення завжди є багатовимірним. Воно враховує не лише масштаб потенційних втрат, а й контрольованість, стратегічну значущість, доступність інструментів реагування, часовий горизонт і навіть організаційну готовність діяти. Коли ці виміри не розділяються, виникає ситуація, яку дуже точно описують як «правильна відповідь на неправильне питання».

Водночас більшість учасників дискусії не розглядають цю ситуацію як помилку ШІ. Навпаки, домінує думка, що інструмент спрацював коректно. Він дав відповідь на те питання, яке йому поставили. Проблема виявилася не в алгоритмі, а в постановці задачі. Саме тому з’являється ще одна важлива теза: AI добре структурує міркування, але не оцінює, чи є сама логіка придатною для практичного застосування. Без доменної експертизи правдоподібне міркування дуже легко сприйняти як валідне.

Ряд фахівців акцентує увагу на ще одному аспекті: ШІ не сигналізує про межі своєї застосовності. Його відповіді виглядають однаково впевнено як у простих, так і у складних ситуаціях. Це створює додатковий ризик для організацій, які не мають достатнього рівня експертизи, щоб відрізнити «логічно сформульовану відповідь» від «управлінськи релевантного висновку». Саме тому з’являється думка, що перша відповідь ШІ більше не може сприйматися як результат. Вона є лише початком аналізу, який потребує уточнення, перевірки і, часто, серії ітерацій.

Окрема лінія дискусії стосується питання контрольованості ризиків. Одні учасники підкреслюють, що ризик, який не перебуває в зоні впливу компанії, не може бути пріоритетом управління незалежно від його масштабу. Інші звертають увагу, що навіть у таких випадках важливо розуміти причинно-наслідкові зв’язки і шукати непрямі точки впливу. Ця дискусія фактично виводить на більш фундаментальне питання: що саме ми оцінюємо — подію чи систему, яка до неї призводить. І саме тут стає очевидно, що без глибокого розуміння контексту жодна модель не здатна дати повноцінну відповідь.

Деякі учасники дискусії трактують реакцію ради директорів як проблему комунікації. Мовляв, аналітично коректний результат не був поданий у формі, придатній для прийняття рішень. Інші, навпаки, вважають, що проблема має структурний характер і пов’язана з самим дизайном моделі, яка змішала два різні питання — «що найбільше впливає на результат» і «де потрібно діяти». Це протиставлення є дуже показовим, оскільки відображає дві різні парадигми ризик-менеджменту: як аналітичної функції і як функції підтримки прийняття рішень.

У підсумку дискусія виходить на ще один важливий рівень — організаційної зрілості. Ряд фахівців зазначає, що ключова проблема полягає не в технології, а в готовності організацій працювати з її результатами. ШІ може виявити незручний або непопулярний ризик, але не може відстояти його перед керівництвом, не може прийняти рішення і не несе відповідальності за наслідки. Це означає, що роль експертизи, судження і управлінської відповідальності не зменшується, а навпаки — стає ще більш критичною.

На цьому тлі постає питання, яке значно важливіше за початкове: чи здатні ми відрізнити аналітично коректний результат від управлінськи релевантного. І саме тут, на мою думку, проходить ключова межа. Проблема не в тому, що ШІ може помилятися або давати спрощені відповіді. Проблема в тому, що він дуже переконливо відповідає навіть тоді, коли питання поставлене некоректно.

У цьому сенсі дискусія фактично підтверджує тезу, яку ми регулярно бачимо на практиці: наявність методології, моделей і навіть високоякісної аналітики ще не означає, що ризик-менеджмент працює як управлінська функція. Якщо результат не прив’язаний до рішення, не змінює поведінку і не визначає дії, він залишається інформацією, а не інструментом управління.

Саме тому головний висновок цієї дискусії, на мій погляд, полягає не в оцінці можливостей AI. Він значно ширший. ШІ не змінює природу ризик-менеджменту, але дуже чітко підсвічує його слабкі місця. Він показує, що можна отримати методологічно чистий і логічно бездоганний результат, який не має жодного впливу на рішення. І це не проблема інструменту. Це проблема того, як ми формулюємо питання і як будуємо саму систему управління.

І, можливо, найважливіше: ШІ не підміняє судження. Він просто робить очевидним, де його бракує.

 

Докладніше за посиланням

Сергій БАБИЧ