AI Act wspiera ważne wartości społeczne

Data publikacji: 5 czerwca 2024

AI Act to krok w kierunku stworzenia odpowiedzialnego i etycznego środowiska dla rozwoju sztucznej inteligencji w Europie. Jego wpływ wykracza poza sferę biznesu, dotykając również kwestii społecznych, takich jak ochrona prywatności, bezpieczeństwo publiczne oraz równość. Jeśli chcesz wiedzieć więcej o AI ACT – zapraszamy na nasz bezpłatny webinar „Jak wdrożyć AI ACT krok po kroku”, który odbędzie się już 13 czerwca o godz. 10:00!

AI Act odwołuje się do kilku kluczowych wartości europejskich, które mają na celu zapewnienie, że rozwój i wdrażanie technologii sztucznej inteligencji (AI) są zgodne z zasadami etycznymi i prawami człowieka. Oto główne wartości, na których opiera się AI Act.

Poszanowanie praw człowieka

AI Act kładzie duży nacisk na ochronę praw człowieka. Technologie AI muszą być projektowane i wykorzystywane w sposób, który nie narusza podstawowych praw i wolności obywateli, takich jak prawo do prywatności, wolności słowa czy prawo do niedyskryminacji.

Etyka

Regulacja podkreśla znaczenie etycznego podejścia do AI. Obejmuje to przejrzystość w działaniu systemów AI, odpowiedzialność za ich decyzje oraz zapobieganie wykorzystaniu AI do działań niezgodnych z zasadami moralnymi, takich jak manipulacja informacjami czy profilowanie rasowe.

Równość i niedyskryminacja

AI Act stawia sobie za cel zapewnienie, że systemy AI są wolne od uprzedzeń i nie dyskryminują żadnej grupy społecznej. Algorytmy muszą być projektowane i testowane tak, aby unikać wszelkich form dyskryminacji ze względu na rasę, płeć, wiek, orientację seksualną czy inne cechy.

Prywatność

Ochrona danych osobowych i prywatności jest jednym z głównych priorytetów AI Act. Technologie AI powinny gwarantować, że dane użytkowników są zbierane, przechowywane i przetwarzane w sposób bezpieczny i zgodny z przepisami dotyczącymi ochrony danych, takimi jak RODO.

Przejrzystość

AI Act wymaga, aby technologie AI były transparentne. Użytkownicy muszą być informowani, kiedy mają do czynienia z systemem AI oraz muszą mieć dostęp do informacji na temat tego, jak działają te systemy i jakie dane są wykorzystywane do ich działania.

Bezpieczeństwo

Regulacje dotyczące AI mają na celu zapewnienie, że technologie te są bezpieczne dla użytkowników. Obejmuje to rygorystyczne testy i oceny ryzyka dla systemów wysokiego ryzyka, takich jak te stosowane w medycynie, transporcie czy innych krytycznych sektorach.

Odpowiedzialność

AI Act wprowadza mechanizmy odpowiedzialności za działania systemów AI. Firmy i organizacje korzystające z technologii AI muszą być gotowe ponieść odpowiedzialność za skutki ich użycia, zwłaszcza w przypadkach, gdy AI podejmuje decyzje mające istotne konsekwencje dla ludzi.


Autor: Marta Adranowska, adwokat, Senior Associate w Lawspective Litwiński Valirakis Radcowie Prawni Sp.k.

E-mail: marta.adranowska@lawspective.pl

Sprawdź, jak możemy pomóc

Przejdź do kontaktu

Powiązane artykuły

Webinar: „AI Act – pierwsze 6 miesięcy. Co biznes musi zrobić w pierwszej kolejności?”

Czytaj więcej

Adw. Maciej Tabor wystąpi jako prelegent na V Kongresie Prawa Nowych Technologii organizowanym przez MUST READ MEDIA

Czytaj więcej

Adwokat Marta Adranowska została liderem Grupy Roboczej ds. AI przy Ministerstwie Cyfryzacji!

Czytaj więcej

AI Act wspiera ważne wartości społeczne

Czytaj więcej