Η Ευρώπη αναπτύσει νομικό πλαίσιο για τη χρήση της τεχνητής νοημοσύνης
Την πρώτη, παγκοσμίως, νομοθετική εργαλειοθήκη για την τεχνητή νοημοσύνη φιλοδοξεί να αποκτήσει η Ευρώπη. Η Ευρωπαϊκή Ένωση έρχεται πιο κοντά σε αυτόν τον στόχο μετά το χθεσινό “πράσινο φως” του Ευρωπαϊκού Κοινοβουλίου στη φιλόδοξη θεσμική παρέμβαση για την τεχνητή νοημοσύνη, τον γνωστό νόμο “AI Act”.
Προς πλήρη απαγόρευση της χρήσης ΑΙ για βιομετρική ταυτοποίηση, αναγνώριση συναισθημάτων και προληπτική αστυνόμευσηΟι νέοι κανόνες θα χωρίζουν τα συστήματα τεχνητής νοημοσύνης σε κατηγορίες ανάλογα με το επίπεδο κινδύνου που αντιπροσωπεύουν και θα θεσπίζουν υποχρεώσεις για τους παρόχους, αλλά και για όσους τα διαθέτουν, για καθεμία από αυτές τις κατηγορίες.
Σύμφωνα με το προσχέδιο της νομοθεσίας, τα συστήματα τεχνητής νοημοσύνης, που κατατάσσονται στο επίπεδο υπερβολικά υψηλού κινδύνου για την ανθρώπινη ασφάλεια, θα απαγορεύονται πλήρως, όπως σε περιπτώσεις “κοινωνικής βαθμολόγησης”.
Οι ευρωβουλευτές διεύρυναν την συγκεκριμένη κατηγορία, συμπεριλαμβάνοντας, επίσης, τις χρήσεις της τεχνολογίας αυτής, που αποτελούν παραβιάσεις της ιδιωτικής ζωής ή οδηγούν σε διακρίσεις, όπως η εξ αποστάσεως βιομετρική αναγνώριση προσώπων σε πραγματικό χρόνο ή εκ των υστέρων, σε δημόσιους χώρους.
Επίσης, το Κοινοβούλιο ζητά να απαγορευτεί πλήρως η βιομετρική κατηγοριοποίηση ατόμων με βάση προσωπικά δεδομένα ευαίσθητου χαρακτήρα (π.χ. φύλο, φυλή, εθνοτική καταγωγή, υπηκοότητα, θρησκεία, πολιτικός προσανατολισμός).
Στα συστήματα ΑΙ, που το Ευρωκοινοβούλιο προτείνει να απαγορευτούν πλήρως, περιλαμβάνεται και η προληπτική αστυνόμευση (με βάση τη δημιουργία προφίλ, την τοποθεσία ή προηγούμενη εγκληματική συμπεριφορά ατόμων). Επίσης, η αναγνώριση συναισθημάτων για λόγους αστυνόμευσης, για τον έλεγχο των συνόρων, στον χώρο εργασίας και στα εκπαιδευτικά ιδρύματα.
Υψηλού κινδύνου
Οι ευρωβουλευτές εξασφάλισαν, επίσης, ότι ο κατάλογος με τις χρήσεις υψηλού κινδύνου θα περιλαμβάνει τα συστήματα τεχνητής νοημοσύνης που προκαλούν σημαντική βλάβη στην υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα των ανθρώπων ή στο περιβάλλον.
Στον ίδιο κατάλογο συμπεριλήφθηκαν ακόμα τα συστήματα που χρησιμοποιούνται για να επηρεάσουν τους ψηφοφόρους και συνεπώς τα αποτελέσματα των εκλογών, καθώς και οι συστάσεις περιεχομένου που κάνουν οι πλατφόρμες κοινωνικής δικτύωσης στους πάνω από 45 εκατ. χρήστες τους, με βάση αλγόριθμους.
Για το ChatGPT
Σύμφωνα με το προτεινόμενο θεσμικό πλαίσιο, εφαρμογές “παραγωγικής τεχνητής νοημοσύνης”, όπως το ChatGPT, θα πρέπει να επισημαίνουν τα προϊόντα τους. Οι εταιρείες προγραμματισμού, που δημιουργούν νέου τύπου εφαρμογές τεχνητής νοημοσύνης, θα πρέπει να μεριμνούν, ώστε όλες οι εφαρμογές τύπου ChatGPT να συμμορφώνονται με τις απαιτήσεις διαφάνειας της Ε.Ε., γνωστοποιώντας στο κοινό ότι έχουν χρησιμοποιηθεί για τη δημιουργία ενός προϊόντος ΑΙ, βοηθώντας επίσης στον διαχωρισμό των παραποιημένων εικόνων.
Θα πρέπει, επίσης, να λαμβάνουν κατάλληλα μέτρα, ώστε να διασφαλίζεται ότι δεν παράγουν παράνομο περιεχόμενο. Θα έχουν, τέλος, την υποχρέωση να διαθέτουν στο κοινό λεπτομερή καταγραφή του υλικού, που προστατεύεται από δικαιώματα πνευματικής ιδιοκτησίας και χρησιμοποιήθηκε για την “εκπαίδευση” των συστημάτων τους.
Γενικά, οι εταιρείες προγραμματισμού, που δημιουργούν νέου τύπου εφαρμογές τεχνητής νοημοσύνης (τα λεγόμενα “foundation models”), θα πρέπει να αξιολογούν και να μετριάζουν τους πιθανούς κινδύνους (για την υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, την δημοκρατία και το κράτος δικαίου) και να εγγράφουν τις εφαρμογές αυτές στη βάση δεδομένων της Ε.Ε., πριν τις διαθέσουν στην ευρωπαϊκή αγορά.
Share:
Διαβάστε Επίσης
Οι αξίες δεν είναι απλώς ένα σύνολο κανόνων· είναι η φιλοσοφία που ορίζει το ποια είναι η επιχείρηση
Προώθηση της κουλτούρας ασφάλειας και υγείας ανάμεσα στους εργαζομένους