Ostatnie miesiące to okres szybkiego rozwoju sztucznej inteligencji. Jak się okazało, za innowacjami przestało nadążać prawo. Rządy oraz organizacje międzynarodowe dostrzegły ten problem i rozpoczęły proces tworzenia regulacji dla narzędzi AI.
Przeczytaj również: 10 najważniejszych wydarzeń w świecie mody w 2023 roku
2 listopada w Wielkiej Brytanii odbył się szczyt bezpieczeństwa AI. Podczas tego wydarzenia twórcy sztucznej inteligencji zgodzili się na współpracę z rządami w celu testowania innowacji przed ich szerszym udostępnieniem. Podjęta decyzja miała pomóc zarządzać niebezpieczeństwami związanymi z rozwojem nowych technologii. Wiadome jednak było, iż to działanie niewystarczające. Miało ono jednak dać rządom oraz międzynarodowym organizacjom czas na stworzenie prawnych rozwiązań regulujących AI.
Przeczytaj również: Topowa influencerka oskarżona o oszustwo. Afera z ciastkami będzie kosztować ją fortunę
Prawne regulacje dotyczące wykorzystywania AI
8 grudnia prawodawcy oraz przedstawiciele rządów UE osiągnęli tymczasowe porozumienie w kwestii zasad regulujących wykorzystywanie AI. Ich podstawowym założeniem jest wymóg przejrzystości narzędzi przed wprowadzeniem ich na rynek. Dotyczy to sporządzenia dokumentacji technicznej, przestrzegania prawa autorskiego UE i rozpowszechniania szczegółowych informacji mogących być treścią szkoleń z obsługi AI.
27 listopada Stany Zjednoczone, Wielka Brytania i kilkanaście innych państw przestawiły 20-stronicowe niewiążące porozumienie. Zawiera ono zalecane sposoby monitorowania sztucznej inteligencji pod kątem nadużyć, ochrony danych przed manipulacją oraz weryfikacji dostawców oprogramowania. Stany Zjednoczone poinformowały również o uruchomieniu instytutu bezpieczeństwa sztucznej inteligencji. Jego celem jest ocena znanych i nowych zagrożeń dotyczących tak zwanych „pionierskich” modeli AI.
Przed kilkoma tygodniami na wprowadzenie regulacji prawnych zdecydowały się również Chiny. Wu Zhaohui, tamtejszy wiceminister nauki i technologii, powiedział 1 listopada, iż „Pekin jest gotowy do zwiększenia współpracy w zakresie bezpieczeństwa sztucznej inteligencji”. Wcześniej władze Państwa Środka opublikowały propozycję wymagań bezpieczeństwa dla firm oferujących usługi oparte na generatywnej sztucznej inteligencji, w tym czarną listę źródeł, których nie można wykorzystywać do trenowania modeli AI.
Wydaje się, iż 2024 rok może okazać się okresem intensywnej gonitwy twórców międzynarodowego prawa za kolejnymi sektorami, które sztuczna inteligencja pozwoli nam zautomatyzować.
Przeczytaj również: TOP3 trendy w modzie męskiej na sezon wiosna-lato 2024
PAP, Zdjęcie główne: Unsplash