Η συμφωνία αυτή, η οποία αφορά την αναδιατύπωση κάποιων ορισμών επί συστημάτων Τεχνητής Νοημοσύνης καθώς και την απαγόρευση κάποιων απ’ αυτά, (έτσι ώστε όσα συστήματα διατεθούν στην ενωσιακή αγορά αφενός να χαρακτηρίζονται ως ασφαλή, αφετέρου να μην παραβιάζουν τα θεμελιώδη δικαιώματα και τις αξίες της ΕΕ), πρέπει τώρα να εγκριθεί από τα δύο νομοθετικά όργανα. Το επόμενο διάστημα, θα ακολουθήσουν κάποιες συζητήσεις σε τεχνικό επίπεδο με στόχο την ολοκλήρωση του σχεδίου της Πράξης για την Τεχνητή Νοημοσύνη (AI Act) και την υιοθέτησή της ώστε να ξεκινήσει η εφαρμογή της από το 2026.
Στις 21 Απριλίου 2021, η Επιτροπή ανέλαβε την πρωτοβουλία για τη θέσπιση ενός Κανονισμού, στο πλαίσιο της πολιτικής δέσμευσης της προέδρου της ΕΕ, Ούρσουλα φον ντερ Λάιεν, που τον Ιούλιο του 2019 με την ιδιότητα της υποψηφίου για το προεδρικό αξίωμα είχε αναφέρει ότι «η Επιτροπή θα προτείνει νομοθεσία για μια συντονισμένη προσέγγιση όσον αφορά τις επιπτώσεις της Τεχνητής Νοημοσύνης σε επίπεδο ανθρώπων και ηθικής». Στη συνέχεια, στις 6 Δεκεμβρίου 2022, το Συμβούλιο συμφώνησε επί της αρχής, με τη λεγόμενη «Γενική Προσέγγιση», για το σχέδιο της Πράξης για την Τεχνητή Νοημοσύνη, ζητώντας να διασφαλιστεί ότι η χρήση συστημάτων Τεχνητής Νοημοσύνης θα είναι ασφαλής, νόμιμη, αξιόπιστη και θα σέβεται τα θεμελιώδη δικαιώματα ενώ, τέλος, το Ευρωπαϊκό Κοινοβούλιο, μόλις τον περασμένο Ιούνιο, πρότεινε μια σειρά τροπολογιών επί του σχεδίου.
Οι τροπολογίες αυτές αφορούσαν τόσο τον ορισμό ορισμένων συστημάτων Τεχνητής Νοημοσύνης, έτσι ώστε να ανταποκρίνονται στους επικαιροποιημένους ορισμούς που εξέδωσε ο Οργανισμός για την Οικονομική Συνεργασία και Ανάπτυξη (ΟΟΣΑ), όσο και στην απαγόρευση κάποιων συστημάτων έπειτα από αξιολόγηση, στη βάση μιας μεθοδολογίας επί των κινδύνων (risk-based approach) που ενδεχομένως να ενέχουν τα συστήματα αυτά για τα δικαιώματα των χρηστών.
Ακολουθώντας την ήδη από το 2018 γαλλική πρωτοβουλία για την ανάπτυξη μιας Εθνικής Στρατηγικής για την Τεχνητή Νοημοσύνη (AI for Humanity), που εκπονήθηκε με επικεφαλής τον αναγνωρισμένο διεθνώς γάλλο μαθηματικό Cédric Villani και παρουσιάστηκε από τον Πρόεδρο Εμμανουέλ Μακρόν, με στόχο να καταστήσει τη Γαλλία πρωτοπόρο στα ζητήματα Τεχνητής Νοημοσύνης πανευρωπαϊκά, ο ΟΟΣΑ υιοθέτησε τις κατευθυντήριες οδηγίες γύρω από ένα πλήθος ζητημάτων στα οποία υπάρχει αλληλεπίδραση με συστήματα βασισμένα στην Τεχνητή Νοημοσύνη, μεταξύ άλλων και ζητημάτων γύρω από την αγορά εργασίας.
Τα ζητήματα αυτά, για τα οποία προσέφυγαν τα ενωσιακά νομοθετικά όργανα στους τριμερείς διαλόγους, αφορούν τη χρήση της Τεχνητής Νοημοσύνης στον τομέα της εθνικής ασφάλειας, έναν τομέα που δεν περιλαμβάνεται στο πεδίο εφαρμογής του ενωσιακού δικαίου. Επίσης αφορούν τη χρήση συστημάτων Τεχνητής Νοημοσύνης σε θέματα συναρμοδιότητας όπως είναι τα θέματα της άμυνας αλλά και η έρευνα και η καινοτομία.
Κρίσιμη στο σημείο αυτό είναι και η κατηγοριοποίηση που επιφέρει το σχέδιο Κανονισμού επί των επιτρεπτών και μη συστημάτων Τεχνητής Νοημοσύνης στη βάση μιας τετραμερούς ανάλυσης ρίσκου. Πιο ειδικά, όσα συστήματα αξιολογούνται ως υψηλού κινδύνου, ανήκοντας στην περιοχή του μη αποδεκτού ρίσκου, όπως είναι τα συστήματα γνωσιακής συμπεριφοριστικής χειραγώγησης, αδιάκριτης αναγνώρισης προσώπων, αναγνώρισης συναισθημάτων στον εργασιακό χώρο και την εκπαίδευση, βιομετρίας ή προγνωστικής αστυνόμευσης, δεν θα επιτρέπονται.
Από την άλλη, όσα συστήματα πληρούν τις υποχρεώσεις διαφάνειας που θεσπίζει η Πράξη, με την έννοια της παροχής ενός ελάχιστου συνόλου πληροφοριών των παρόχων συστημάτων Τεχνητής Νοημοσύνης προς τους χρήστες, θα επιτρέπονται. Κι εδώ είναι που εγείρονται οι μεγαλύτερες προκλήσεις για τον ενωσιακό (αλλά και τον εθνικό) νομοθέτη: ποιο είναι το όριο πέραν του οποίου η χρήση συστημάτων Τεχνητής Νοημοσύνης απαγορεύεται – και με ποια κριτήρια καθορίζεται αυτό το όριο;
Αν και η συμφωνία της 9ης Δεκεμβρίου έχει ενισχύσει το κανονιστικό σκέλος της Πράξης σχετικά με τις διατάξεις για τους τομείς υψηλού αντικτύπου (λ.χ. κλιματική αλλαγή, υγεία, δημόσιος τομέας, οικονομικά κ.ά.), όπου η εφαρμογή συστημάτων Τεχνητής Νοημοσύνης ενδέχεται να επιφέρει συστημικούς κινδύνους ή σχετικά με την αναθεώρηση του συστήματος διακυβέρνησης ή σχετικά με την επέκταση της λίστας απαγορευμένων συστημάτων ή, τέλος, σχετικά με την υποχρέωση από τους παρόχους συστημάτων Τεχνητής Νοημοσύνης εκπόνησης μελέτης αντικτύπου επί των θεμελιωδών δικαιωμάτων πριν από τη διάθεση στην αγορά συστημάτων υψηλού ρίσκου, η πρόκληση του νομοθέτη εξακολουθεί να παραμένει.
Παραπέμπω στο δίλημμα του Collingridge, που διατυπώθηκε το 1980 και αφορά τη ρύθμιση της τεχνολογίας: όταν πρόκειται για καινοφανείς τεχνολογίες τίθεται το δίλημμα του χρονικού σημείου (καμπής) στο οποίο ο νομοθέτης μπορεί ή οφείλει να παρέμβει. Αν η ρύθμιση επέλθει νωρίς, χωρίς ο νομοθέτης να γνωρίζει σε βάθος το θέμα, ενδέχεται η ρύθμιση να έχει αρνητικό αντίκτυπο στην ανάπτυξη της τεχνολογίας. Aν η τεχνολογία προλάβει να καθιερωθεί διεισδύοντας σε κάθε πτυχή της ζωής, τότε η όποια ρύθμιση ενδέχεται να καταστεί αναποτελεσματική.
Σύμφωνα με τους ειδικούς της Επιστήμης των Υπολογιστών η Τεχνητή Νοημοσύνη δεν είναι κάτι το καινοφανές. Ήδη από τη δεκαετία του 1950, ο διάσημος μαθηματικός Άλαν Τιούρινγκ αναφέρθηκε στην Τεχνητή Νοημοσύνη στο έργο του Computing Machinery and Intelligence, προσπαθώντας να απαντήσει στο ερώτημα «εάν οι μηχανές μπορούν να σκεφτούν». Το ανανεωμένο ενδιαφέρον ξεκίνησε τα τελευταία χρόνια, έπειτα από τους λεγόμενους «χειμώνες» που διήνυσε η Τεχνητή Νοημοσύνη κατά τις δεκαετίες του 1980 και του 1990. Απλώς, σήμερα, οι νέοι και πιο ισχυροί επεξεργαστές βοήθησαν στην επέκταση συστημάτων βασισμένα στην Τεχνητή Νοημοσύνη, παράγοντας που αναδεικνύει τη δυναμική της.
Ωστόσο οι νομοθέτες διακατέχονται από το σύνδρομο του «σφυριού - καρφιού» (hammer - nail), όπως το περιγράφει το 1999 ο Λόρενς Λέσιγκ (Lawrence Lessig), καθηγητής στη Νομική Σχολή του Χάρβαρντ, στο σημαντικό έργο του Code and Other Laws of Cyberspace: για να ρυθμίσουν το διαδίκτυο, σημειώνει, προσπαθούν να επιβάλλουν ρυθμίσεις παντού. Αυτό όμως έχει αρνητικές συνέπειες, ιδίως στην περίπτωση της Τεχνητής Νοημοσύνης η οποία όπως φαίνεται διανύει πλέον την «άνοιξή» της.
Χαρακτηριστικό παράδειγμα αποτελούν οι ΗΠΑ οι οποίες δεν έχουν προβεί σε ανάλογες με την ΕΕ ρυθμίσεις γύρω από τα θέματα Τεχνητής Νοημοσύνης. Αν και έχει ξεκινήσει μια διαδικασία ρύθμισης σε πολιτειακό επίπεδο, όπου τουλάχιστον 25 Πολιτείες έχουν ήδη θεσπίσει κανόνες, ενώ τον περασμένο Οκτώβριο εκδόθηκε και μια Εκτελεστική Οδηγία από τον πρόεδρο Μπάιντεν για την Τεχνητή Νοημοσύνη, εντούτοις η υιοθέτηση ενός ομοσπονδιακού νόμου βρίσκεται ακόμη υπό συζήτηση. Οι ΗΠΑ, βεβαίως, θεωρούν πως η Τεχνητή Νοημοσύνη αποτελεί το συγκριτικό τους τεχνολογικό πλεονέκτημα έναντι του κυριότερου ανταγωνιστή τους στον τομέα αυτό, της Κίνας.
Στη χώρα μας, ήδη με τον Ν. 4961/2022, τον σχετικό με τις ρυθμίσεις για την ανάπτυξη της Τεχνητής Νοημοσύνης στον δημόσιο και ιδιωτικό τομέα, έχουν τεθεί οι βάσεις για τη διαμόρφωση μιας σχετικής εθνικής στρατηγικής. Σε κάθε περίπτωση όμως, και στο βαθμό που υπάρχουν φωτεινά παραδείγματα ανάπτυξης σχετικών τεχνολογιών, όπως είναι η πρόσφατη κατασκευή του ταχύτερου επεξεργαστή Τεχνητής Νοημοσύνης στον κόσμο από το Τμήμα Πληροφορικής του Αριστοτελείου Πανεπιστημίου Θεσσαλονίκης, τα ζητήματα αυτά χρήζουν ιδιαίτερης προσοχής από την κυβέρνηση και το αρμόδιο υπουργείο. Επίσης, είναι επιτακτική ανάγκη η δημιουργία μιας Ανεξάρτητης Αρχής γύρω από τα ζητήματα της Τεχνητής Νοημοσύνης, ώστε το έργο της Εθνικής Επιτροπής Βιοηθικής και Τεχνοηθικής, η οποία ήδη συγκρότησε σχετική ομάδα εμπειρογνωμόνων, να περάσει σε επόμενο επίπεδο, αυτό της εποπτείας.
Η Τεχνητή Νοημοσύνη αποτελεί μεγατάση, σύμφωνα με την Έκθεση «Megatrends 2040» της Γραμματείας Μακροπρόθεσμου Σχεδιασμού, και αναμένεται να «επηρεάσει έντονα το μέλλον μας». Καθώς λοιπόν τα συστήματα Τεχνητής Νοημοσύνης είναι ήδη εδώ, οι λύσεις δεν μπορούν να περιμένουν.