Sztuczna inteligencja i uczenie maszynowe w bankach – dyskusje Bazylejskiego Komitetu Nadzoru Bankowego

06 kwietnia 2022

Banki coraz częściej badają możliwości wykorzystania sztucznej inteligencji i uczenia maszynowego (AI/ML). W technologii AI/ML pokłada się nadzieję na zwiększenie efektywności operacyjnej banków, a także usprawnienie zarządzania ryzykiem. Podczas gdy wykorzystanie AI/ML w obszarach bankowości tworzy szerokie możliwości, istnieją również zagrożenia i wyzwania związane z tymi technikami. Banki wciąż są w trakcie opracowywania najlepszych praktyk w zakresie zarządzania ryzykiem. Biorąc pod uwagę coraz powszechniejsze stosowanie tej technologii oraz potencjalne ryzyka, Bazylejski Komitet Nadzoru Bankowego (dalej Komitet) analizuje wykorzystanie przez banki sztucznej inteligencji/ML oraz potencjalne konsekwencje dla nadzoru bankowego.

W swoich dotychczasowych dyskusjach Komitet zidentyfikował kilka obszarów wymagających dalszej analizy nadzorców. W niektórych przypadkach modele AI/ML mogą być trudniejsze w zarządzaniu niż modele tradycyjne ze względu na złożoność ich rozwiązań. Generalnie banki dążą do utrzymania poziomu przejrzystości w projektowaniu, działaniu i interpretacji wyników modeli współmiernie do ryzyka działalności bankowej. Podobne wyzwania pojawiają się, gdy tworzenie modeli AI/ML jest zlecane na zewnątrz, ponieważ banki nadal ponoszą odpowiedzialność za należytą staranność i nadzór. Z uwagi na fakt, że wdrażanie AI/ML często wiąże się z wykorzystaniem dużych zbiorów danych, wzajemnymi połączeniami ze stronami trzecimi i wykorzystaniem technologii chmurowych, może to również skutkować powstaniem potencjalnych ryzyk związanych z cyberbezpieczeństwem. Ponadto, biorąc pod uwagę ilość i złożoność źródeł danych powszechnie wykorzystywanych do obsługi modeli AI/ML, stosowanie tych technik może stanowić wyzwanie w zakresie zarządzania danymi w kierunku zapewniania jakości, trafności, bezpieczeństwa i poufności danych. Co więcej, modele AI/ML (podobnie jak modele tradycyjne) mogą odzwierciedlać błędy i niedokładności w danych, na których są “szkolone”, i potencjalnie prowadzić do nieetycznych wyników, jeśli nie są odpowiednio zarządzane.

Biorąc pod uwagę wyzwania związane z AI/ML, zarówno nadzorcy, jak i banki oceniają istniejące praktyki zarządzania ryzykiem, aby ustalić, czy działania w zakresie identyfikacji i zarządzania ryzykiem pozostają wystarczające. Podobnie jak w przypadku innych złożonych operacji i technologii, ważne jest, aby banki posiadały odpowiednio wykwalifikowaną kadrę, do której mogą należeć twórcy modeli, zatwierdzający, użytkownicy modeli i niezależni audytorzy.

Opierając się na dotychczasowych dyskusjach na temat nadzoru nad implikacjami stosowania sztucznej inteligencji i uczenia maszynowego, Komitet pracuje nad dalszymi spostrzeżeniami na ten temat. Dalsze dyskusje skoncentrują się na trzech obszarach:

  • zakres i stopień, do których wyniki modeli mogą być zrozumiane i wyjaśnione,
  • struktury zarządzania modelem AI/ML, w tym obowiązki i odpowiedzialność za decyzje podejmowane w wyniku stosowania AI/ML,
  • potencjalne implikacje szerszego wykorzystania modeli AI/ML dla odporności poszczególnych banków i szerzej dla stabilności finansowej.

Komitet uważa, że ​​szybka ewolucja i wykorzystanie sztucznej inteligencji i machine learning przez banki uzasadniają dalsze dyskusje nad konsekwencjami nadzorczymi, które będą ułatwione dzięki ciągłej wymianie doświadczeń między nadzorcami i ekspertami branżowymi.

 

Jeśli chcą być Państwo na bieżąco z działalnością strony Risk & Compliance Platform Polska, zapraszamy do zapisania się do newslettera.

 

Źródło: https://www.bis.org/publ/bcbs_nl27.htm

Zostaw odpowiedź

Your email address will not be published. Required fields are marked *