Το εργατικό δίκαιο αποτελεί ένα ιδιαίτερα ευαίσθητο κλάδο του δικαίου στις διάφορες εξελίξεις. Ειδικότερα το φαινόμενο της πληροφορικής προκαλεί αναταράξεις λόγω των μεταβολών που προκαλεί στον τρόπο οργάνωσης της εργασίας. Κρίσιμη είναι η λειτουργία της Τεχνητής Νοημοσύνης, πολλές εφαρμογές της οποίας μπορούν πράγματι να χρησιμοποιηθούν για την επίτευξη ορισμένων στόχων της σύγχρονης επιχείρησης όσον αφορά τη διαχείριση του προσωπικού της.
Απώλεια θέσεων εργασίας;
Πριν απ’όλα εμφανίζεται εύλογος ο φόβος ότι η ΤΝ θα αντικαταστήσει την ανθρώπινη εργασία. Δεν υπάρχει αμφιβολία ότι θα καταργηθούν θέσεις εργασίας, αλλά είναι επίσης βέβαιο ότι θα δημιουργηθούν άλλες. Το ισοζύγιο φαίνεται επί του παρόντος αβέβαιο .
Σε κάθε περίπτωση υπάρχει ανάγκη προστασίας των ευάλωτων εργαζομένων, ενώ πρέπει να ενισχυθούν οι διαδικασίες επανεκπαίδευσης εκείνων των εργαζομένων που πρόκειται να απωλέσουν την εργασία τους.
Η τεχνητή νοημοσύνη στην υπηρεσία των εργοδοτικών λειτουργιών
Η χρήση αλγορίθμων μπορεί να εξυπηρετήσει διάφορους στόχους που συνδέονται με τη λειτουργία της επιχείρησης: την πρόσληψη εργαζομένων, την εκτέλεση της σύμβασης εργασίας και, τέλος, την καταγγελία της.
Στην αγορά εργασίας, οι αλγόριθμοι αναπτύσσουν λύσεις που υποβοηθούν την πρόσληψη (κυρίως με την προσέγγιση της προσφοράς προς τη ζήτηση εργασίας) και τη διαχείριση των ανθρώπινων πόρων. Έτσι, η επιχείρηση μπορεί να καθορίσει, μέσα από ένα μεγάλο αριθμό βιογραφικών που βρίσκονται στη διάθεσή της, τους υποψήφιους υπαλλήλους που θα αποκλειστούν από την επιλογή και να εστιάσει, στη συνέχεια, την προσοχή σε έναν περιορισμένο αριθμό υποψηφίων. Σε μια σύγχρονη επιχείρηση, είναι, έτσι, συχνά ένας αλγόριθμος που, άμεσα ή έμμεσα, αποφασίζει ποιος θα προσληφθεί.
Πολλές επιχειρήσεις έχουν, επίσης, προ πολλού, εγκαταστήσει συστήματα παρακολούθησης των μισθωτών και αξιολόγησης της επαγγελματικής δραστηριότητάς τους. Τα δεδομένα που καταχωρούνται αφορούν την παραγωγικότητά τους, τις κινήσεις τους ή τις αξιολογήσεις που προέρχονται από τους προϊσταμένους τους ή από τους πελάτες της επιχείρησης. Ο άμεσος εργοδοτικός έλεγχος αντικαθίσταται από μια λεπτομερή ανάλυση, με αλγόριθμο, των δεδομένων που βρίσκονται στη διάθεση της επιχείρησης.
Η εξάρτηση όμως δεν εξαφανίζεται. Αντικαθίσταται, απλώς, από τον αλγόριθμο, ο οποίος ελέγχει τους εργαζόμενους, τους αξιολογεί και συχνά τους ανταμείβει, ενώ θα μπορούσε να καθορίσει το σύνολο της σταδιοδρομίας τους στην επιχείρηση, ακόμη και την καταγγελία της σύμβασής τους.
Οι κίνδυνοι που ελλοχεύουν από τη χρήση της τεχνητής νοημοσύνης
Ακόμη και αν η «αντικειμενικότητα» των αυτόματων συστημάτων προβάλλεται συχνά, οι αλγόριθμοι στην πραγματικότητα δεν είναι πάντοτε αντικειμενικοί και αμερόληπτοι. Υπάρχει μεγάλη ανάγκη για δεοντολογία του αλγορίθμου, δηλαδή για την εγκαθίδρυση μιας «ηθικής» του.
Σε μια επιχείρηση που προσφεύγει στην τεχνητή νοημοσύνη, υπάρχει σημαντικός κίνδυνος διακρίσεων σε βάρος ορισμένων κατηγοριών εργαζομένων. Ορθά έτσι χαρακτηρίζεται ως πεδίο υψηλού κινδύνου (AI Act). Η λήψη αποφάσεων βάσει ενός αλγορίθμου μπορεί να βασιστεί σε κοινωνικές προκαταλήψεις: ορισμένες προκαταλήψεις είναι δυνατόν να αναπαραχθούν μέσω των αξιολογήσεων των πελατών, οι οποίες γίνονται αντικείμενο επεξεργασίας με έναν αλγόριθμο, πράγμα που μπορεί, όμως, να οδηγεί σε διακρίσεις διαιωνίζοντας ιστορικές νοοτροπίες διακρίσεων, για παράδειγμα εις βάρος γυναικών, ορισμένων ηλικιακών ομάδων, ατόμων με αναπηρία κλπ.
Ο Κανονισμός (ΓΚΠΔ) ορίζει, ορθά, (άρθρο 22), καθώς και το άρθρο 52 του νόμου 4629/2019, ότι καμία απόφαση, και επομένως καμία εργοδοτική απόφαση, δεν μπορεί να βασίζεται αποκλειστικά σε αυτοματοποιημένη επεξεργασία προσωπικών δεδομένων. Μια «μηχανή» δεν μπορεί μόνη (χωρίς ανθρώπινη παρέμβαση) να λαμβάνει αποφάσεις με συνέπειες κρίσιμες για τους ανθρώπους. Η τεχνητή νοημοσύνη είναι, με τον τρόπο αυτό, πλαισιωμένη. Έτσι, για παράδειγμα, μια καταγγελία σύμβασης εργασίας δεν μπορεί να αποφασισθεί αυτοματοποιημένα από τον αλγόριθμο.
Είναι απαραίτητο να διασφαλιστεί ότι η πρόβλεψη και η σύσταση που εισφέρουν οι αλγόριθμοι, δεν αποτελούν ουσιαστικά «παρά μια βοήθεια στη λήψη αποφάσεων και στην ανθρώπινη δράση, χωρίς να οδηγούμαστε σε απευθυνοποίηση του ανθρώπου, σε απώλεια της αυτονομίας του».
Επιβάλλεται επίσης η διαφάνεια. Ορθά τονίζεται στο νόμο (άρθρο 9 ν. 4961/2022) ότι κάθε επιχείρηση, εφόσον χρησιμοποιεί σύστημα τεχνητής νοημοσύνης, το οποίο επηρεάζει οποιαδήποτε διαδικασία λήψης αποφάσεων σχετικά με τους εργαζομένους ή τους υποψήφιους εργαζομένους, οφείλει να τους παρέχει επαρκή και σαφή πληροφόρηση, η οποία περιλαμβάνει τις παραμέτρους στις οποίες στηρίζεται η λήψη της απόφασης.
Συμπερασματικά, θα ήταν εσφαλμένη η αντίληψη ότι η κατεύθυνση της τεχνολογίας είναι νομοτελειακή δεδομένη. Απαιτείται, απλά, εγρήγορση, διαφάνεια και διάθεση αποτελεσματικής προστασίας.



