Tło
Sztuczna inteligencja (AI), będąca połączeniem informatyki, uczenia maszynowego i dużych zbiorów danych, jest coraz częściej stosowana w różnych branżach, zwłaszcza w technologii finansowej (Fintech). To przejście w kierunku procesów opartych na sztucznej inteligencji ma na celu poprawę wydajności biznesowej i szybkości transakcji. Wprowadza jednak również bezprecedensowe ryzyko, wymagające ram behawioralnych lub kodeksu postępowania w celu optymalizacji wykorzystania sztucznej inteligencji i zminimalizowania ryzyka.
Podczas piątego indonezyjskiego szczytu i wystawy FinTech 2023 w dniu 24 listopada 2023 r. Indonezyjski Urząd ds. Usług Finansowych (Komisja Usług Finansowych lub OJK), wraz z kilkoma innymi instytucjami,[2] Wprowadziła swoje Wytyczne etyczne (Wytyczne), aby pracować na rzecz odpowiedzialnej i godnej zaufania sztucznej inteligencji w branży Fintech.[3] Ramy te są spójne ze światowymi standardami przyjętymi przez Politykę AI Organizacji Współpracy Gospodarczej i Rozwoju (OECD).[4] I to
Kluczowe zasady
Podstawowe zasady odpowiedzialnego i zaufanego wykorzystania sztucznej inteligencji w Fintech:
- Wyrównanie z Panchasheela:[7] Zapewnienie, że rozwój i wykorzystanie sztucznej inteligencji jest zgodne z interesami narodowymi i obowiązkami etycznymi opartymi na wartościach Panchasheela.[8]
- Korzyści: zastosowania sztucznej inteligencji powinny zwiększać wartość operacji biznesowych, poprawiać dobrobyt konsumentów, poprawiać umiejętności podejmowania decyzji, zmniejszać nierówności, zwiększać włączenie finansowe i wspierać zrównoważony wzrost gospodarczy.[9]
- Uczciwość i odpowiedzialność: zastosowania sztucznej inteligencji powinny być uczciwe i bezstronne, chronić prywatność konsumentów i zapobiegać szkodom. Należy wprowadzić ramy ograniczania ryzyka, aby zapewnić odpowiedni i proporcjonalny wkład zastosowań sztucznej inteligencji.[10]
- Otwartość i przejrzystość: firmy Fintech muszą mieć kontrolę nad wdrażaniem sztucznej inteligencji i być w stanie wyjaśnić to konsumentom od wejścia do produktu, z uwzględnieniem strategii ryzyka i ograniczania ryzyka.[11]
- Solidność i bezpieczeństwo: aplikacje AI muszą być niezawodne, bezpieczne przed cyberatakami i opracowane przez wykwalifikowanych lub certyfikowanych ekspertów w dziedzinie sztucznej inteligencji. Implementacja techniczna i funkcje bezpieczeństwa wymagają ciągłego testowania i walidacji.[12]
implikacja
Wytyczne te wymagają od firm Fintech przyjęcia etycznych, uczciwych, przejrzystych, odpowiedzialnych, solidnych i bezpiecznych praktyk związanych ze sztuczną inteligencją. Obejmuje to regularne aktualizacje, testowanie i walidację modeli i algorytmów sztucznej inteligencji, zapewnienie integralności i prywatności danych oraz utrzymanie skalowalności i zaangażowania człowieka w procesy decyzyjne.
Rozważać
Firmy Fintech powinny rozważyć następujące kwestie:
- Zasady etyczne i sprawiedliwość w wykorzystaniu AI
Firmy Fintech muszą zapewnić, że ich systemy sztucznej inteligencji są zgodne ze standardami etycznymi i zasadami sprawiedliwości. Oznacza to projektowanie i obsługę sztucznej inteligencji w sposób zapewniający poszanowanie praw człowieka, promujący uczciwość i unikający uprzedzeń.
- Ciągłe uczenie się i doskonalenie algorytmów AI
Firmy Fintech powinny wdrożyć procesy regularnej oceny i doskonalenia swoich algorytmów AI. To udoskonalenie pomaga w zmianie dynamiki rynku, ewoluowaniu krajobrazu regulacyjnego i pojawiającym się postępie technologicznym.
- Prywatność i przetwarzanie danych podlegają przepisom
Firmy Fintech muszą zapewniać prywatność i bezpieczeństwo informacji o klientach oraz odpowiedzialnie zarządzać danymi i je przetwarzać. Obejmuje to przestrzeganie odpowiednich przepisów i wytycznych dotyczących gromadzenia, przechowywania, wykorzystywania i udostępniania danych. Przedsiębiorstwa powinny również zachować przejrzystość w zakresie swoich działań związanych z przetwarzaniem danych.
- Zadowolenie i doświadczenie użytkownika
Projektowanie i wdrażanie systemów sztucznej inteligencji powinno koncentrować się na poprawie doświadczenia i satysfakcji użytkowników.
- Ujawnianie działań AI i mechanizmów odpowiedzialności prawnej.
Firmy Fintech muszą otwarcie ujawniać, jak działają ich systemy sztucznej inteligencji, rodzaj wykorzystywanych danych i kryteria podejmowania decyzji. Ponadto powinny istnieć precyzyjne mechanizmy odpowiedzialności prawnej za decyzje podejmowane przez systemy AI, w tym protokoły dotyczące usuwania błędów lub stronniczości w wynikach AI oraz rozpatrywania skarg klientów związanych z decyzjami AI.
Wniosek
Przyjęcie tych wytycznych ma kluczowe znaczenie dla odpowiedzialnego i niezawodnego wdrożenia sztucznej inteligencji w branży Fintech. Zapewnia etyczne wykorzystanie sztucznej inteligencji, chroni interesy konsumentów i promuje zrównoważony rozwój, minimalizując jednocześnie ryzyko związane z technologiami AI. Przestrzeganie tych zasad będzie sprzyjać zaufaniu i wiarygodności usług finansowych opartych na sztucznej inteligencji.