CAE очікують, що аудиторське покриття ризиків, пов’язаних зі штучним інтелектом, зростатиме в міру того, наскільки швидко організації впроваджуватимуть цю технологію.
Швидке зростання та впровадження генеративного AI (GenAI) призвело до необхідності забезпечення аудиторського покриття потенційних ризиків, пов’язаних із використанням цієї технології, згідно з опитуванням Gartner, Inc.
“Оскільки організації все ширше використовують нові технології штучного інтелекту, багато внутрішніх аудиторів прагнуть розширити свої знання в цій сфері”, – сказав Томас Теравайнен, з Gartner. “Існує низка AI-ризиків, з якими стикаються організації: від відмов контролю і ненадійних результатів до передових кіберзагроз. Три з шести найбільших ризиків, які найшвидше зростають в аудиті, пов’язані зі штучним інтелектом”.
Gartner опитав 102 керівників служби аудиту (CAEs) у серпні 2023 року, щоб оцінити важливість надання гарантій щодо 35 ризиків. Шість основних ризиків з найбільшим можливим збільшенням покриття аудиту це:
- стратегічне управління змінами;
- різноманітність, справедливість та інклюзія;
- організаційна культура;
- AI-обумовлені кіберзагрози;
- відмови контролю AI;
- ненадійні результати AI моделей (див. Рисунок 1).

Рисунок 1: Найбільші Потенційні Збільшення Покриття Аудиту
Великі розриви в довірі до ШІ ризиків
“Мабуть, найпомітнішим висновком з цих даних є те, наскільки внутрішні аудитори не впевнені у власній здатності ефективно контролювати ШІ ризики”, – зазначив Теравайнен. “Не більше 11% респондентів, які оцінили один з трьох найважливіших ШІ ризиків як дуже важливий, вважають себе дуже впевненими у наданні гарантій щодо нього.”
Публічно доступні додатки GenAI та ті, що створені в рамках організації, створюють нові та підвищені ризики для безпеки даних та інформації, конфіденційності, IP захисту та порушення авторських прав, а також довіри та надійності результатів. Багато корпоративних ініціатив GenAI реалізуються в бізнес-підрозділах, що працюють з клієнтами. Поширення GenAI зумовлює пріоритетність захисту організації від ненадійних результатів роботи моделей ШІ (наприклад, упередженої або неточної інформації від моделей ШІ). Це зроблено і для того, щоб захистити її від репутаційних збитків або потенційних судових позовів.
“З таким широким спектром потенційних ризиків з усіх сфер в бізнесі, легко зрозуміти, чому аудитори не впевнені у своїй здатності надавати гарантії”, – додав Теравайнен. “Однак, зважаючи на те, що генеральні директори та фінансові директори оцінюють AI як технологію, яка найбільше вплине на їхні організації протягом наступних трьох років, постійні розриви в довірі підірвуть здатність CAEs задовольняти очікування зацікавлених сторін.”







