Przyszłość HR: Jak etycznie wdrażać sztuczną inteligencję w organizacji?
Rola sztucznej inteligencji w obszarze Human Resources wzrasta. Wiąże się to z szeregiem korzyści – od automatyzacji procesów po zwiększające się możliwości związane z analizą danych. Niebagatelną rolę w implementacji rozwiązań opartych na AI odgrywają też jednak wyzwania związane z ochroną praw pracowników. W oczekiwaniu na XIII Kongres Spółek Giełdowych SEG zapytaliśmy Martę Borówkę, Senior Associate w zespole prawa pracy DLA Piper oraz Piotra Czulaka LL.M., Senior Associate w zespole IPT DLA Piper, jak etycznie wykorzystywać sztuczną inteligencję w organizacji.
Automatyzacja procesów a ochrona danych
Sztuczna inteligencja może dziś wspierać działy HR w całym cyklu życia pracownika – od rekrutacji, przez onboarding, aż po zarządzanie wykonywanymi zadaniami. Dzięki temu firmy mogą szybciej i efektywniej podejmować decyzje kadrowe. Trudno jednak pominąć kwestię związaną z ochroną danych osobowych zatrudnionych. Systemy działające na podstawie AI przetwarzają ogromne ilości informacji, często także dane wrażliwe. Firmy powinny podjąć wysiłek zapewnienia pełnej transparentności i bezpieczeństwa tych procesów, mając na uwadze unijne regulacje, jak choćby RODO.
Eksperci wskazują, że pierwszym krokiem, o jakim należy pamiętać jest dookreślenie, najlepiej w dedykowanej procedurze wewnętrznej, w jakim zakresie i na jakich zasadach pracownicy mogą korzystać z narzędzi opartych o AI. Procedura powinna precyzować, jakie informacje mogą być podawane w narzędziu, w tym poprzez wpisywanie poleceń działania, a jakie nie – z racji na ich sensytywny charakter. Przykładowo, pracownicy nie powinni używać danych osobowych, zarówno swoich jak i osób trzecich, bez wcześniejszego upewnienia się, że takie przetwarzanie danych miałoby podstawę prawną i nie naraża pracodawcy na ryzyko. Ponadto powinny zostać określone zasady związane z wykorzystaniem informacji poufnych i tajemnic przedsiębiorstwa w celu zapobieżenia przypadkowemu ujawnieniu tego rodzaju informacji podmiotom trzecim. Pracownik powinien być świadomy tego, które czynności są prawidłowe, a które wykraczają poza ten zakres.
Specjaliści podkreślają również, że pracodawca nie tylko powinien sprawować nadzór nad tym, jakie narzędzia są używane i w jaki sposób, powinien również zweryfikować właściwe umowy i regulaminy świadczenia usług opartych o AI pod kątem możliwych ryzyk. Pracodawca powinien być świadomy, jakie dane będą zbierane i wykorzystywane dalej przez dostawcę usługi, gdzie będą trafiać (przykładowo, czy będą transferowane poza Europejski Obszar Gospodarczy), jak wyglądają ograniczenia i wyłączenia odpowiedzialności właściwego dostawcy oraz jakie prawa przysługują użytkownikom usługi jak i samemu pracodawcy. Z racji na dynamiczny rozwój tego typu narzędzi, weryfikacja warunków świadczenia usług powinna mieć charakter cykliczny, w szczególności biorąc pod uwagę częste aktualizacje właściwych warunków.
Eksperci DLA Piper podkreślają, że jeśli w organizacji mają być stosowane narzędzia oparte o AI, które nie wymagają aktywnej roli pracowników, ale działają na nich pasywnie, należy upewnić się, że ich działanie jest zgodne z przepisami o ochronie danych osobowych, w szczególności istnieją podstawy prawne dla przetwarzania danych osobowych, podmioty danych (tj. pracownicy) zostały poinformowane o zasadach przetwarzania ich danych oraz przysługujących im prawach, a cały proces podlegał uprzedniej ocenie w zakresie wpływu na ochronę danych. Pracodawca powinien dokumentować tego rodzaju analizy na potrzeby wewnętrzne oraz ewentualnych kontroli właściwych organów.
Algorytmy decyzyjne a przeciwdziałanie dyskryminacji
Wykorzystanie sztucznej inteligencji w rekrutacji i zarządzaniu pracownikami daje obietnicę większej obiektywności, m.in. za sprawą eliminacji ludzkich uprzedzeń. Rzeczywistość jest jednak bardziej zniuansowana. Algorytmy uczą się na historycznych danych, które mogą zawierać zakodowane nierówności, czy nieuświadomione błędy.
Kilka lat temu stało się głośno o systemie rekrutacyjnym, nad którym pracował wówczas Amazon. Jego celem było usprawnienie procesu oraz łatwiejsze wyławianie najlepszych kandydatów z morza aplikacji. Niestety na zaawansowanym etapie prac okazało się, że system faworyzował mężczyzn. Wszystko dlatego, że wytrenowano go na danych, pokazujących historyczną dominację tej grupy w branży technologicznej. Aby zapobiegać podobnym sytuacjom w przyszłości, konieczna zdaje się być stała kontrola człowieka. Kluczowe w tej kwestii jest monitorowanie decyzji, testowanie modeli pod kątem uprzedzeń, czy wdrażanie regulacji, takich jak audyty algorytmiczne i wyjaśnialność decyzji.
Warto, aby firmy miały świadomość, że nawet najnowocześniejsze narzędzia wymagają nadzoru, a czasami również korekty. Tylko w taki sposób mogą potencjalnie przyczynić się do większej obiektywności i transparentności procesów związanych z zarządzaniem zasobami ludzkimi.
Marta Borówka i Piotr Czulak z DLA Piper podkreślają, że przede wszystkim należy zadbać o jakość i reprezentatywność danych, na których bazuje dany system AI. Modele AI potrafią replikować uprzedzenia zawarte w historycznych zestawach danych, co może prowadzić do systematycznego wykluczania określonych grup kandydatów. Wdrażając rozwiązanie oparte na sztucznej inteligencji w obszarze zatrudnienia, należy zatem jednocześnie wdrożyć odpowiednie mechanizmy weryfikujące czy propozycje generowane przez algorytm nie są dyskryminujące. I tu dochodzimy do meritum, którym jest komponent ludzki.
Eksperci wskazują, że weryfikacją wyników systemu AI powinien zająć się człowiek – i to taki, który rozumie jak działa system AI i będzie w stanie przeanalizować dane dotyczące na przykład procesu rekrutacji czy awansów z uwzględnieniem parametrów jak płeć czy wiek, aby wychwycić potencjalne obszary dyskryminacji. Nie bez powodu w unijnym akcie o sztucznej inteligencji wskazano, że systemy AI zakwalifikowane do kategorii wysokiego ryzyka (a do takich zalicza się systemy wykorzystywane w obszarze zatrudnienia) powinny być nadzorowane przez człowieka. Musimy pamiętać, że odpowiedzialność za przeciwdziałanie dyskryminacji w zatrudnieniu finalnie ciąży na konkretnych osobach fizycznych reprezentujących pracodawcę, dlatego niezależnie od zaawansowania rozwiązań AI, ostateczna decyzja w kluczowych kwestiach kadrowych powinna być oparta o decyzję człowieka.
Specjaliści podkreślają również, że od strony technicznej nie można też zapominać o audycie algorytmów, ponieważ systemy AI mogą podlegać zmianom (np. wraz z dopływem nowych danych). Audyty są potrzebne po to, aby ocenić, czy system nie „przesuwa się” w stronę decyzji, które mogłyby być uznane za dyskryminacyjne.
AI w monitorowaniu efektywności
Sztuczna inteligencja może wspierać przełożonych w ocenie produktywności pracowników, np. analizując czas spędzony w danej aplikacji, czy komunikację w narzędziach firmowych. Na rynku dostępnych jest szereg rozwiązań, oferujących szczegółowe raporty na temat efektywności zespołów. W tym kontekście jednak także mogą pojawić się wątpliwości etyczne.
Pracownik, mając świadomość ciągłej kontroli, może odczuwać stres, co przyczynia się do obniżenia motywacji. W tym kontekście zasadne wydaje się także pytanie, czy nadmierna inwigilacja w pracy może naruszać prawo do prywatności.
Najważniejszym wyzwaniem staje się odnalezienie równowagi pomiędzy uzasadnioną analizą wydajności a dbaniem o dobrostan psychiczny pracowników i ich motywację. W przeciwnym wypadku może dojść do sytuacji, że technologia, zamiast wspierać rozwój organizacji, będzie przyczyniać się do rosnącej frustracji pracowników, zwiększając poziom ich rotacji.
Gdzie leży granica kontroli i jak ją wyznaczyć?
Specjaliści DLA Piper przypominają, że od 2018 r. w Kodeksie pracy – jeszcze zanim na dobre rozpoczęła się rewolucja AI – obowiązują przepisy dotyczące monitoringu pracowników, obejmujące nie tylko tradycyjny monitoring wizyjny, lecz także kontrolę skrzynek pocztowych czy aktywności online. Wprowadzenie takiej formy nadzoru wymaga wyraźnego uzasadnienia, którym może być pełne wykorzystanie czasu pracy oraz właściwego użytkowania narzędzi pracy udostępnionych pracownikowi. Pracownicy muszą być o monitoringu wyraźnie poinformowani.
Jak wskazują eksperci, z przepisów wynika wprost, że monitoring nie może naruszać tajemnicy korespondencji ani innych dóbr osobistych, w tym prawa do prywatności. Jednym z rekomendowanych rozwiązań jest wprowadzenie przejrzystych zasad zarówno co do samego monitoringu, jak i korzystania z firmowego sprzętu. Przykładowo, pracodawcy często zakazują wykorzystywania służbowych urządzeń do celów prywatnych albo wymagają, aby wiadomości o charakterze osobistym były odpowiednio oznaczane (na przykład słowami kluczowymi w tytule).
Zdaniem przedstawicieli DLA Piper zakres kontroli pracowników powinien każdorazowo wynikać z zasady proporcjonalności oraz uwzględniać konieczność zachowania równowagi między uzasadnionym interesem pracodawcy a prawem pracownika do prywatności. Owszem, narzędzia oparte na sztucznej inteligencji mogą znacząco wspierać pracodawców w dbaniu o efektywność, jednak przed ich wdrożeniem trzeba rozważyć czy zaprojektowano je w taki sposób, aby minimalizować ryzyko nadmiernej ingerencji w dobra osobiste pracowników.
Ponadto, w celu zachowania wymogów w zakresie ochrony danych eksperci przypominają, że należy upewnić się, że istnieją podstawy prawne dla związanego z nim przetwarzania danych osobowych pracowników, zostali oni poinformowani o zasadach przetwarzania ich danych oraz przysługujących im prawach, a cały proces związany z monitoringiem podlegał uprzedniej ocenie w zakresie wpływu na ochronę danych, która została należycie udokumentowana.
Przyszłość sztucznej inteligencji w HR – w poszukiwaniu równowagi
Nie ulega wątpliwości, że AI ma potencjał, by usprawniać procesy rekrutacyjne, zwiększać efektywność zarządzania zespołami, a także poprawiać doświadczenie samych pracowników. Aby tak się stało konieczne jest jednak jej odpowiedzialne wdrożenie z przestrzeganiem norm etycznych. Co istotne, warto, aby AI wspierała specjalistów HR, a nie zastępowała ich w strategicznych aspektach zarządzania ludźmi.
Jeśli spojrzymy w dłuższej perspektywie, sukces firm może w nadchodzących latach zależeć nie tylko od skuteczności technologii, ale także od zdolności organizacji do tworzenia środowiska pracy, w którym AI jest narzędziem wspierającym rozwój, a nie zagrożeniem dla autonomii pracowników.
***
Wsparcia merytorycznego udzielili:

Marta Borówka, Senior Associate w zespole prawa pracy DLA Piper

Piotr Czulak LL.M., Senior Associate w zespole IPT DLA Piper
Od 8 do 9 kwietnia w Hotelu Warszawianka w Jachrance odbędzie się XIII edycja Kongresu HR Spółek Giełdowych SEG. Jest to kolejne cyklicznie planowane wydarzenie, organizowane w ramach misji edukacyjnej, podczas którego będzie można wymienić się doświadczeniami dotyczącymi pracy dyrektorów personalnych spółek giełdowych oraz zdobyć wiedzę pomocną w zarządzaniu kapitałem ludzkim w spółce.