Τι είναι ο Κανονισμός Τεχνητής Νοημοσύνης – Έξι Έλληνες ειδικοί εξηγούν τη σημασία της ευρωπαϊκής νομοθεσίας

Τι είναι ο Κανονισμός Τεχνητής Νοημοσύνης - Έξι Έλληνες ειδικοί εξηγούν τη σημασία της ευρωπαϊκής νομοθεσίας

Λίγο μετά την υιοθέτηση από τη συντριπτική πλειοψηφία του Ευρωπαϊκού Κοινοβουλίου του Νόμου για την Τεχνητή Νοημοσύνη (AI Law), της πρώτης ολοκληρωμένης νομοθεσίας στον κόσμο για αυτήν την ταχέως αναπτυσσόμενη τεχνολογία, και καθώς η Ευρωπαϊκή Ένωση προχωρά ένα βήμα πιο κοντά στην εφαρμογή αυτού του κανονισμού, έξι ελληνικές Οι ειδικοί στον τομέα της τεχνητής νοημοσύνης Πέτρος Κουμουτσάκος, Λίλιαν Μήτρου, Γιώργος Παγουλάτος, Φερενίκης Παναγοπούλου, Γιώργος Παππάς και Ιωάννης Πίτας σε συνέντευξή τους στο ΑΠΕ-ΜΠΕ επισημαίνουν τις θετικές πλευρές αλλά και τις προκλήσεις αυτής της πρωτοποριακής νομοθετικής πρωτοβουλίας.

Στόχος των νέων κανόνων, σύμφωνα με δελτίο τύπου που εξέδωσε το Ευρωπαϊκό Κοινοβούλιο, είναι η προστασία των θεμελιωδών δικαιωμάτων, της δημοκρατίας, του κράτους δικαίου και της περιβαλλοντικής βιωσιμότητας έναντι συστημάτων τεχνητής νοημοσύνης υψηλού κινδύνου, αλλά και η αύξηση της καινοτομίας και η ανάδειξη της Ευρώπης ως ηγετική δύναμη στον τομέα αυτό. Για το σκοπό αυτό, ο κανονισμός ορίζει διάφορες υποχρεώσεις για τα συστήματα τεχνητής νοημοσύνης, ανάλογα με τους πιθανούς κινδύνους και τις συνέπειες της χρήσης τους.

«Ο Κανονισμός είναι αναμφισβήτητα το πιο σημαντικό, περιεκτικό και σημαντικό ρυθμιστικό βήμα που έγινε σε διεθνές επίπεδο», σημειώνει η ΑΠΕ-ΜΒΕ Λίλιαν Μήτρου, Καθηγήτρια Προστασίας Δεδομένων Προσωπικού Χαρακτήρα και Πληροφοριών/Δίκαιο Διαδικτύου στο Πανεπιστήμιο Αιγαίου. Ο Γιώργος Παγουλάτος, Μόνιμος Αντιπρόσωπος της Ελλάδας στον ΟΟΣΑ και μέλος της Εθνικής Επιτροπής Τεχνητής Νοημοσύνης, κάνει λόγο για «ένα ιστορικό βήμα προς την προώθηση της διεθνούς ανταγωνιστικότητας και την προστασία των ανθρωπίνων δικαιωμάτων, δύο στόχους που δεν συμβαδίζουν εύκολα». Από την πλευρά της, η Φερενίκη Παναγοπούλου, επίκουρη καθηγήτρια Συνταγματικού Δικαίου, Δικαίου Προστασίας Δεδομένων και Βιοηθικής στο Πάντειο Πανεπιστήμιο, μέλος της Εθνικής Επιτροπής Τεχνητής Νοημοσύνης, τονίζει ότι «ο κανονισμός στοχεύει σε ρύθμιση που προάγει την αγορά με σεβασμό των θεμελιωδών δικαιωμάτων και ασφάλειας. “

Τι παρέχεται;

Θετική είναι και η αξιολόγηση τριών κορυφαίων ερευνητών τεχνητής νοημοσύνης. «Αυτή η νομοθεσία είναι σημαντική και η Ευρώπη οδηγεί τον δρόμο», τονίζει ο Πέτρος Κουμουτσάκος, πρόεδρος του Τμήματος Εφαρμοσμένων Μαθηματικών στο Χάρβαρντ, ενώ ο Γιώργος Παππάς, καθηγητής στο Τμήμα Ηλεκτρολόγων Μηχανικών του Πανεπιστημίου της Πενσυλβάνια, κάνει λόγο για «μια εξαιρετική επίτευγμα που θα προστατεύσει τους Ευρωπαίους από τις νέες απειλές της τεχνητής νοημοσύνης». Ο Ιωάννης Πίτας, καθηγητής στο Τμήμα Επιστήμης Υπολογιστών του ΑΠΘ, πρόεδρος της Διεθνούς Ακαδημίας Διδακτορικών Σπουδών στην Τεχνητή Νοημοσύνη (AIDA) και μέλος της Εθνικής Επιτροπής Τεχνητής Νοημοσύνης, τονίζει ότι «η νομοθετική ρύθμιση της χρήσης συστημάτων τεχνητής νοημοσύνης είναι αναγκαιότητα και η Ευρωπαϊκή Ένωση είναι πρωτοπόρος στον τομέα».

Μετά από ψηφοφορία στο Ευρωπαϊκό Συμβούλιο τους επόμενους μήνες, ο κανονισμός θα γίνει δίκαιο της Ευρωπαϊκής Ένωσης και η πλήρης εφαρμογή του αναμένεται εντός 24-36 μηνών από την έναρξη ισχύος του. Ο κανονισμός ορίζει διαφορετικές υποχρεώσεις έναντι των συστημάτων τεχνητής νοημοσύνης, ανάλογα με τους πιθανούς κινδύνους και τις συνέπειες της χρήσης τους.

Προκλήσεις ρύθμισης

Μεταξύ άλλων, οι νέοι κανόνες απαγορεύουν ορισμένες εφαρμογές τεχνητής νοημοσύνης που απειλούν τα δικαιώματα των πολιτών, όπως βιομετρικά συστήματα κατηγοριοποίησης που βασίζονται σε ευαίσθητα χαρακτηριστικά και τη μη στοχευμένη συλλογή εικόνων ανθρώπων από το Διαδίκτυο ή βίντεο από κάμερες κλειστού κυκλώματος τηλεόρασης με σκοπό τη δημιουργία βάσεων δεδομένων. για την αναγνώριση ατόμων. Θα απαγορευθούν επίσης η αναγνώριση συναισθημάτων στο χώρο εργασίας και τα σχολεία, η κοινωνική ταξινόμηση, η προληπτική αστυνόμευση (αν βασίζεται αποκλειστικά στο προφίλ ενός ατόμου ή η αξιολόγηση των χαρακτηριστικών του) και η τεχνητή νοημοσύνη που χειραγωγεί την ανθρώπινη συμπεριφορά ή εκμεταλλεύεται τις ανθρώπινες αδυναμίες. Επιπλέον, θεσπίζονται σαφείς υποχρεώσεις για συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου λόγω της πιθανής βλάβης που μπορούν να προκαλέσουν.

Ο κανονισμός θεσπίζει ορισμένες εξαιρέσεις για τις αρχές επιβολής του νόμου. Για παράδειγμα, απαγορεύει γενικά τη χρήση βιομετρικών συστημάτων αναγνώρισης προσώπου από τις υπηρεσίες επιβολής του νόμου, αλλά κατ’ εξαίρεση επιτρέπει τη χρήση τέτοιων συστημάτων «σε εξαντλητικά απαριθμημένες και στενά καθορισμένες περιπτώσεις», όπως εξηγεί στο ΑΠΕ-ΜΠΕ η επίκουρη καθηγήτρια του Παντείου Φερενίκη Παναγοπούλου. «Ο κανονισμός κατηγοριοποιεί τα συστήματα με βάση τον κίνδυνο, σταδιακά το επίπεδο ρύθμισης ανάλογα με το επίπεδο κινδύνου που ενέχουν διαφορετικά συστήματα τεχνητής νοημοσύνης. Ο στόχος είναι να αποφευχθεί τόσο η υπορρύθμιση (η οποία δεν προστατεύει τα δικαιώματα και άλλες αξίες) όσο και η υπερβολική ρύθμιση (που καταπνίγει την καινοτομία και την αποτελεσματική λειτουργία της ενιαίας αγοράς), εξηγεί.

Ωστόσο, η κ. Παναγοπούλου ανησυχεί ότι «μια προσέγγιση βασισμένη σε λίστα και όχι σε αρχές για τον προσδιορισμό του εάν ένα σύστημα είναι υψηλού κινδύνου δεν είναι χωρίς προβλήματα. Είναι εξαιρετικά δύσκολο να απαριθμηθούν εκ των προτέρων οι εφαρμογές συστημάτων που ενέχουν σοβαρό κίνδυνο παραβίασης δικαιωμάτων. Ως αποτέλεσμα, τα συστήματα που ταξινομούνται επί του παρόντος ως χαμηλού κινδύνου ενδέχεται να μην υπόκεινται σε επαρκή ρύθμιση για την πρόληψη παραβιάσεων δικαιωμάτων. Αυτή η αδυναμία επιδεινώνεται από τους φόβους ότι οι διατάξεις του νόμου ενδέχεται να αντικαταστήσουν πιο απαιτητικές προστασίες δικαιωμάτων που προβλέπονται σε άλλη νομοθεσία της ΕΕ προς όφελος των πιο απαιτητικών διασφαλίσεων που εισάγονται σε εθνικό επίπεδο από τα κράτη μέλη.

Η καθηγήτρια του Πανεπιστημίου Αιγαίου Λίλιαν Μήτρου, από την πλευρά του, εξηγεί στο ΑΠΕ-ΜΠΕ ότι η ρύθμιση δεν θα ισχύει για ερευνητικά προγράμματα για να μην διακοπεί η έρευνα. Ταυτόχρονα όμως, «αν θέλεις να βάλεις κάτι στην αγορά, πρέπει να είναι συμβατό. Μπορεί να μην σας ζητηθεί να το ακολουθήσετε αυτό στην έρευνά σας, αλλά αυτό που θα καταλήξετε θα πρέπει να συμμορφώνεται με τον κανονισμό προκειμένου να αναπτυχθεί ως σύστημα τεχνητής νοημοσύνης».