Dirbtinio intelekto rizikų valdymas
Gasparavičienė, Iveta |
Recenzentas / Rewiewer |
Licencinė sutartis Nr. MRU-EDT-1699.
Darbo tema – „Dirbtinio intelekto rizikų valdymas“. Pagrindinis tikslas – išanalizuoti, kaip Lietuvos organizacijos identifikuoja ir valdo su dirbtiniu intelektu (DI) susijusias rizikas, įvertinant, kiek taikomi sprendimai atitinka šiuolaikinius tarptautinius standartus ir galiojančius teisės aktus. Dirbtinio intelekto technologijos sparčiai keičia organizacijų veiklos logiką – jos ne tik atveria naujas galimybes, bet ir iškelia sudėtingus klausimus, susijusius su sprendimų skaidrumu, atsakomybės ribomis, duomenų šališkumu bei etinėmis dilemomis. Šiame tyrime analizuojami pagrindiniai DI rizikų valdymo standartai ir modeliai – ISO/IEC 42001, ISO 27001, NIST AI RMF ir GRC struktūra – siekiant įvertinti jų sąveiką su Europos Sąjungos reguliavimo sistema (AI Act, GDPR, DSA) bei jų poveikį organizacijų vidaus kontrolės mechanizmams. Teorinė analizė buvo derinama su kokybiniu tyrimu, grįstu pusiau struktūruotais interviu. Tyrimo dalyviai – ekspertai iš Lietuvos viešojo ir privataus sektoriaus – atskleidė, kad daugelyje organizacijų DI rizikų valdymas vis dar vyksta fragmentiškai. Standartai dažnai taikomi formaliai, neintegruojant jų į kasdienes praktikas. Tarp pagrindinių iššūkių išskirti sprendimų skaidrumo stoka, žmogiškojo faktoriaus sumažėjimas technologiniuose sprendimuose, ribota duomenų valdymo kokybė ir neaiškios etinės ribos. Remiantis tyrimo rezultatais, siūlomas struktūruotas, tarpdisciplininis požiūris, apjungiantis technologinius, teisinius ir etinius komponentus į vieningą, praktikoje pritaikomą sistemą. Taip pat pateikiamos rekomendacijos, padedančios organizacijoms geriau prisitaikyti prie nuolat besikeičiančios technologijų ir reguliavimo aplinkos, didinant pasitikėjimą bei skatinant atsakingą DI diegimą.
The main objective of this thesis is to examine how Lithuanian organizations identify and manage risks associated with artificial intelligence (AI), assessing the extent to which their practices align with modern international standards and applicable legal regulations. AI technologies are reshaping how organizations operate, offering significant opportunities while simultaneously introducing complex challenges—such as lack of transparency in decision-making, unclear lines of accountability, data bias, and unresolved ethical concerns. This study explores key AI risk management standards and models—ISO/IEC 42001, ISO 27001, the NIST AI Risk Management Framework, and the GRC model—focusing on how these frameworks interact with EU regulations (AI Act, GDPR, and DSA) and influence internal organizational controls. The theoretical discussion is supported by qualitative research based on semi-structured interviews with experts from Lithuania’s public and private sectors. The findings indicate that AI risk management remains fragmented across many organizations. Standards are frequently adopted at a surface level, without being meaningfully embedded in day-to-day operations. Key issues identified include limited decision-making transparency, reduced human involvement in automated processes, insufficient data governance, and ambiguous ethical parameters. Drawing on these insights, the study proposes a structured, interdisciplinary approach that brings together technological, legal, and ethical perspectives into a cohesive and applicable framework. It also provides practical recommendations aimed at helping organizations adapt more effectively to the fast- changing technological and regulatory environment, while fostering trust and encouraging the responsible use of AI.