ΕΛ/ΛΑΚ | creativecommons.gr | mycontent.ellak.gr |
freedom

Πόσο «ανοιχτή» είναι η τεχνητή νοημοσύνη ανοιχτού κώδικα;

Εξερευνώντας τον τρόπο με τον οποίο ο νόμος AI Act ρυθμίζει την τεχνητή νοημοσύνη ανοιχτού κώδικα

Ο όρος «τεχνητή νοημοσύνη ανοιχτού κώδικα» μπορεί να είναι φορτισμένος. Δανείζεται ορολογία από το λογισμικό ανοιχτού κώδικα (OSS) για να μεταφέρει την ιδέα ενός τεχνουργήματος τεχνητής νοημοσύνης που μπορεί να μοιραστεί, να τροποποιηθεί και να αναπαραχθεί με ελάχιστους περιορισμούς για τους χρήστες.

Πολλά μοντέλα, συστήματα και πλαίσια τεχνητής νοημοσύνης χαρακτηρίζονται εξίσου ως ανοιχτού κώδικα, ενώ προσφέρουν διαφορετικούς βαθμούς πρόσβασης. Για παράδειγμα, τα δημοφιλή μοντέλα GPT της OpenAI είναι προσβάσιμα μόνο μέσω πληρωμένων APIs και διεπαφών ιστού, σε αντίφαση με το όνομα της εταιρείας. Η άδεια του αυτοχαρακτηριζόμενου ως ανοιχτού κώδικα Llama-3 της Meta επιτρέπει στους χρήστες να κατεβάσουν και να χρησιμοποιήσουν το μοντέλο, εφόσον δεν παρεμποδίζουν τα επιχειρηματικά συμφέροντα της Meta. Η EleutherAI αντίθετα παρέχει πρόσβαση σε δεδομένα εκπαίδευσης, κώδικα, μοντέλο και όλα τα απαραίτητα στοιχεία για την αναδημιουργία και τροποποίηση του GPT-NeoX της. Διάφορα άλλα συστήματα τεχνητής νοημοσύνης βρίσκονται κάπου ανάμεσα σε αυτές τις περιπτώσεις ελάχιστης και μέγιστης ανοιχτότητας.

Η Irene Solaiman περιγράφει αυτό το φάσμα επιλογών πρόσβασης ως τη «διαβάθμιση» των μεθόδων κυκλοφορίας τεχνητής νοημοσύνης, όπου διαφορετικοί βαθμοί ανοιχτότητας συνεπάγονται συγκεκριμένους κινδύνους και πιθανά οφέλη. Ένα πολύ ανοιχτό σύστημα μπορεί να είναι ευκολότερο να επαναχρησιμοποιηθεί, αν όχι να τροποποιηθεί πλήρως, και η κυκλοφορία του μπορεί να είναι σχετικά διαφανής, συμπεριλαμβανομένων πληροφοριών σχετικά με τα δεδομένα στα οποία εκπαιδεύτηκε. Με αυτόν τον βαθμό πρόσβασης, ο καθένας μπορεί να δημιουργήσει ένα παράγωγο αποτέλεσμα από το σύστημα ή τα προσβάσιμα στοιχεία του. Θεωρητικά, οι αρχικοί προγραμματιστές δεν θα πρέπει να θεωρούνται υπεύθυνοι για τις βλάβες που μπορεί να προκύψουν από τέτοια αποτελέσματα.

Το λογισμικό ανοιχτού κώδικα έχει ιστορικά μια ευρεία ποικιλία συνεισφερόντων, από μεμονωμένους εθελοντές έως μεγάλες πολυεθνικές εταιρείες. Τα τελευταία χρόνια, βασίζεται περισσότερο σε συνεισφέροντες που απασχολούνται σε εταιρείες και πρωτοβουλίες που καθοδηγούνται από επιχειρήσεις, με το όριο μεταξύ της κοινότητας λογισμικού ανοιχτού κώδικα και των ιδιωτικών εταιρειών να γίνεται όλο και πιο διαπερατό.

Καθώς η τεχνητή νοημοσύνη ανοιχτού κώδικα αυξάνεται σε δημοτικότητα, αρχίζει επίσης να ρυθμίζεται διαφορετικά από τα ιδιόκτητα συστήματα τεχνητής νοημοσύνης. Νομοθεσίες όπως ο νόμος AI Act της ΕΕ προσπαθούν να μετριάσουν τις βλάβες της τεχνητής νοημοσύνης, ενώ κάνουν προσαρμογές για να μειώσουν τα βάρη σε μικρά και ανεξάρτητα έργα ανοιχτού κώδικα για την προώθηση της έρευνας και της καινοτομίας. Σε αυτό το σημείο, οι ορισμοί της τεχνητής νοημοσύνης ανοιχτού κώδικα γίνονται όλο και πιο κρίσιμοι για προγραμματιστές, υπεύθυνους χάραξης πολιτικής και, τελικά, για τους ανθρώπους.

Οι κίνδυνοι μιας δυαδικής διάκρισης μεταξύ τεχνητής νοημοσύνης ανοιχτού κώδικα και ιδιόκτητης

Οι δημόσιες συζητήσεις για την τεχνητή νοημοσύνη σπάνια αναφέρουν την έννοια μιας διαβάθμισης ανοιχτότητας. Εταιρείες όπως η Meta, η DeepSeek και η EleutherAI συμβάλλουν σε αυτό χρησιμοποιώντας την ετικέτα ανοιχτού κώδικα ως προϊόν μιας δυαδικής διάκρισης: τα μοντέλα μπορούν να είναι είτε ανοιχτά είτε κλειστά.

Αυτό είναι τόσο συγκεχυμένο όσο και προβληματικό. Εάν οι προγραμματιστές συστημάτων ανοιχτού κώδικα δεν ευθύνονται για τις βλάβες που προκύπτουν από τους αρχικούς σχεδιασμούς τους, η ετικέτα ανοιχτού κώδικα θα μπορούσε να γίνει μια κάρτα εξόδου από τη φυλακή για εταιρείες που εμπορευματοποιούν τα συστήματά τους, ενώ ανοίγουν την πρόσβαση σε ορισμένα από τα στοιχεία τους. Εάν κωδικοποιηθεί σε πολιτική, μια δυαδική ταξινόμηση και απαλλαγή από την ευθύνη της τεχνητής νοημοσύνης ανοιχτού κώδικα μπορεί να δημιουργήσει μια αυθαίρετη διαίρεση κατά μήκος της διαβάθμισης ανοιχτότητας. Και όσοι επιδιώκουν να παρακάμψουν τη ρύθμιση μπορεί να το δουν αυτό ως παραθυράκι για εκμετάλλευση.

Οι υπεύθυνοι χάραξης πολιτικής δεν είναι οι μόνοι που αγωνίζονται να βρουν κατάλληλους τρόπους ταξινόμησης της ανοιχτότητας της τεχνητής νοημοσύνης ανοιχτού κώδικα. Πολλές διαδικτυακές κοινότητες και οργανισμοί έχουν πραγματοποιήσει δημόσιες συζητήσεις και έχουν δημιουργήσει έργα για την ταξινόμηση των χαρακτηριστικών μιας τεχνητής νοημοσύνης ανοιχτού κώδικα. Το πιο εξέχον και πιο ορατό από αυτά τα έργα είναι ο ορισμός της Open Source Initiative (OSI).

Ο ορισμός AI του OSI

Στη δεκαετία του 1990, το OSI επισημοποίησε και καθοδήγησε την εφαρμογή του Open Source Definition (OSD), το δημοφιλές πρότυπο που καθορίζει εάν μια άδεια λογισμικού είναι ανοιχτού κώδικα ή όχι. Αυτό ήταν κρίσιμο τόσο για εταιρείες όσο και για άτομα. Οι άδειες ανοιχτού κώδικα σημαίνουν ότι το λογισμικό μοιράζεται χωρίς εγγύηση και οι άνθρωποι μπορούν να το χρησιμοποιούν και να το τροποποιούν χωρίς να ανησυχούν για παραβίαση πνευματικών δικαιωμάτων.

Μια μορφή λογισμικού ανοιχτού κώδικα υπήρχε πολύ πριν από το OSI, με την ονομασία «ελεύθερο λογισμικό». Το 1998, οι συνιδρυτές του OSI επινόησαν τον όρο «ανοιχτός κώδικας» για να κάνουν την έννοια πιο ελκυστική στις ιδιωτικές εταιρείες.

Δεδομένης της φήμης του OSI για την επισημοποίηση του όρου και την καθοδήγηση των πρακτικών γύρω από τη χρήση του, ακολούθησε ένας γενικός αναστεναγμός ανακούφισης μετά την ανακοίνωση ότι η πρωτοβουλία θα ηγείται στη δημιουργία του Open Source AI Definition (OSAID).

Όπως το αρχικό OSD, το OSAID επιδιώκει να προσδιορίσει ποιες πτυχές ενός συστήματος τεχνητής νοημοσύνης παρέχουν στους χρήστες τις «τέσσερις ελευθερίες» που συνδέονται με τον ανοιχτό κώδικα. Για να είναι ένα κομμάτι λογισμικού ανοιχτού κώδικα, ο καθένας θα πρέπει να μπορεί να: το χρησιμοποιεί για οποιονδήποτε σκοπό και χωρίς να χρειάζεται να ζητήσει άδεια· να μελετά πώς λειτουργεί και να επιθεωρεί τα στοιχεία του· να το τροποποιεί για οποιονδήποτε σκοπό, συμπεριλαμβανομένης της αλλαγής των αποτελεσμάτων του· και να το μοιράζεται για χρήση από άλλους, με ή χωρίς τροποποιήσεις, για οποιονδήποτε σκοπό.

Το OSAID αντλεί από τις «τέσσερις ελευθερίες» για να θέσει κριτήρια για τα τρία κύρια τεχνουργήματα που αποτελούν ένα σύστημα τεχνητής νοημοσύνης: δεδομένα, κώδικας και μοντέλο.

Δεδομένα

Οι πληροφορίες δεδομένων που πρέπει να κοινοποιηθούν για να εκπληρωθεί το OSAID είναι:

  • η πλήρης περιγραφή όλων των δεδομένων που χρησιμοποιούνται για την εκπαίδευση — συμπεριλαμβανομένων των μη κοινοποιήσιμων δεδομένων — αποκαλύπτοντας την προέλευση, το εύρος και τα χαρακτηριστικά τους, τον τρόπο απόκτησης και επιλογής των δεδομένων, τις διαδικασίες επισήμανσης και τις μεθοδολογίες επεξεργασίας και φιλτραρίσματος δεδομένων
  • μια λίστα όλων των δημόσια διαθέσιμων δεδομένων εκπαίδευσης και από πού μπορούν να αποκτηθούν
  • μια λίστα όλων των δεδομένων εκπαίδευσης που μπορούν να αποκτηθούν, δωρεάν ή με πληρωμή, από τρίτους και πού μπορούν να βρεθούν.

Η πρόσβαση στα πραγματικά υποκείμενα δεδομένα εκπαίδευσης ή δοκιμής που χρησιμοποιούνται στη δημιουργία του συστήματος απουσιάζει εμφανώς από αυτήν τη λίστα. Το OSAID δεν απαιτεί τα δεδομένα με τα οποία «κατασκευάζεται» το σύστημα, αλλά μόνο πληροφορίες σχετικά με αυτά τα δεδομένα.

Αυτή είναι μια σημαντική παράλειψη. Ένας προγραμματιστής που εργάζεται σε ένα παράγωγο ενός συστήματος τεχνητής νοημοσύνης συμβατού με το OSAID δεν θα μπορεί να τροποποιήσει τα δεδομένα που αποτελούν την υποκείμενη λογική του συστήματος, και θα μπορεί μόνο να το ρυθμίσει προσθέτοντας νέα δεδομένα εκπαίδευσης. Για παράδειγμα, για να τροποποιήσει ένα σύστημα τεχνητής νοημοσύνης που, κατά μέσο όρο, δημιουργεί μεγαλύτερο αριθμό ψευδών αναγνωρίσεων για εικόνες φυλετικοποιημένων ανθρώπων, ο προγραμματιστής θα πρέπει να προσθέσει περισσότερα δεδομένα, αντί να αφαιρέσει ή να αλλάξει τα δεδομένα που προκαλούν το πρόβλημα.

Αυτό είναι δύσκολο εγχείρημα για ανεξάρτητους και μικρούς προγραμματιστές τεχνητής νοημοσύνης ανοιχτού κώδικα, οι οποίοι μπορεί απλώς να μην έχουν τους υλικούς πόρους για να επανεκπαιδεύσουν ένα μοντέλο. Εάν, από πρακτική άποψη, το μοντέλο δεν μπορεί να τροποποιηθεί, η ανοιχτότητά του είναι πολύ περιορισμένη.

Κώδικας

Στην περίπτωση των τεχνολογιών τεχνητής νοημοσύνης, ο κώδικας ενός συστήματος είναι συχνά υπεύθυνος για την εξαγωγή, μετατροπή και φόρτωση των δεδομένων για την εκπαίδευση του μοντέλου τεχνητής νοημοσύνης. Συχνά, θα περιλαμβάνει επίσης τους ορισμούς των παραμέτρων — πρόσθετες τεχνικές πληροφορίες σχετικά με τον τρόπο εκπαίδευσης του μοντέλου και εικόνες για το πώς το σύστημα λαμβάνει αποφάσεις — καθώς και την εφαρμογή του εκπαιδευμένου μοντέλου σε μια συγκεκριμένη περίπτωση χρήσης. Όπως με κάθε λογισμικό ανοιχτού κώδικα, ο κώδικας που χρησιμοποιείται για την επεξεργασία δεδομένων και την εκπαίδευση του μοντέλου πρέπει να κυκλοφορεί με άδεια ανοιχτού κώδικα.

Μοντέλο και παράμετροι

Το μοντέλο (το τεχνούργημα που δημιουργείται από τη διαδικασία εκπαίδευσης) και οι τιμές των παραμέτρων του (οι μεταβλητές που προσαρμόζονται κατά την εκπαίδευση) πρέπει επίσης να κυκλοφορούν με τυπικές άδειες ανοιχτού κώδικα. Οι τιμές των παραμέτρων μπορεί να περιλαμβάνουν σημεία ελέγχου από βασικά ενδιάμεσα στάδια εκπαίδευσης καθώς και την τελική κατάσταση βελτιστοποίησης. Αυτά τα τεχνουργήματα αντιπροσωπεύουν αυτό που δημιουργείται μετά την εκπαίδευση. Είναι απαραίτητα για το σύστημα τεχνητής νοημοσύνης, για παράδειγμα, να κάνει προβλέψεις και να δημιουργήσει απαντήσεις σε ερωτήματα, αλλά από μόνα τους συχνά δεν επαρκούν για να κατανοήσει κανείς πώς το σύστημα τεχνητής νοημοσύνης κάνει αυτό που κάνει.

Εξαιρέσεις για συστήματα ανοιχτού κώδικα στον νόμο AI Act της ΕΕ

Ένα πρώτο πεδίο δοκιμών για το πώς το OSAID θα διασταυρωθεί με τη ρύθμιση της τεχνητής νοημοσύνης είναι ο νόμος AI Act της ΕΕ. Καλύπτονται τα συστήματα τεχνητής νοημοσύνης ανοιχτού κώδικα από τον νόμο ή εξαιρούνται; Και τι θεωρεί η ευρωπαϊκή νομοθεσία ως ανοιχτό κώδικα;

Ο κανονισμός φαίνεται να προσφέρει χώρο για ερμηνεία σχετικά με την τεχνητή νοημοσύνη ανοιχτού κώδικα. Σε αυτό το φαινομενικό κενό, οργανισμοί τρίτων όπως η OSI και οι αντίστοιχοι ορισμοί τους μπορεί να αναλάβουν μια άτυπη εξουσία για να αποφασίσουν ποια συστήματα είναι ανοιχτού κώδικα, καθορίζοντας ενδεχομένως τι εμπίπτει στο πεδίο εφαρμογής της νομοθεσίας. Ένας σχετικά μαλακός ορισμός του ανοιχτού κώδικα, όπως το OSAID, που, παραλείποντας αιτήματα για δεδομένα εκπαίδευσης, δεν καθιστά τα συστήματα τεχνητής νοημοσύνης πραγματικά αναπαραγώγιμα, μπορεί να αποδυναμώσει τον κανονισμό χωρίς να ωφελήσει την κοινότητα ανοιχτού κώδικα.

Ως παράδειγμα, ο νόμος αναφέρει εξαιρέσεις για έργα ανοιχτού κώδικα σε συγκεκριμένους τομείς. Ένας από αυτούς αναφέρεται σε συστήματα τεχνητής νοημοσύνης και φαίνεται να επιτρέπει στα ανοιχτού κώδικα (με τα οποία το κείμενο του νόμου φαίνεται να εννοεί κάτι παρόμοιο με ένα σύστημα που εκπληρώνει το OSAID) να εφαρμόζουν πρακτικές τεχνητής νοημοσύνης που κατά τα άλλα αναφέρονται ως απαγορευμένες. Αυτή η διάταξη προορίζεται να υποστηρίξει μικρούς, ανεξάρτητους προγραμματιστές ανοιχτού κώδικα, αλλά υποτίθεται ότι δεν θα ισχύει για συστήματα που θα μπορούσαν να αποτελέσουν υψηλό κίνδυνο ή που εφαρμόζουν απαγορευμένες πρακτικές και είτε «διατίθενται στην αγορά» είτε «τίθενται σε λειτουργία». Προκύπτουν μερικά ερωτήματα: αυτό σημαίνει ότι τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται, αλλά δεν «τίθενται σε λειτουργία» ούτε «διατίθενται στην αγορά» ως προϊόντα υψηλού κινδύνου, εξαιρούνται πλήρως από το σύνολο του νόμου AI Act της ΕΕ; Τι σημαίνει να «τεθεί σε λειτουργία», ποια τεχνολογικά στοιχεία συνιστούν ένα σύστημα τεχνητής νοημοσύνης ανοιχτού κώδικα και ποιος είναι υπεύθυνος εάν τρίτος θέσει σε λειτουργία ένα σύστημα τεχνητής νοημοσύνης ανοιχτού κώδικα; Θα θεωρηθούν τα μοντέλα OS που τοποθετούνται σε πλατφόρμες φιλοξενίας ως «τεθέντα σε λειτουργία»;

Αξίζει να σημειωθεί ότι μια άλλη αναφορά στην τεχνητή νοημοσύνη ανοιχτού κώδικα στον νόμο αναφέρεται σε μοντέλα τεχνητής νοημοσύνης γενικού σκοπού (GPAI), αντί για συστήματα. Αυτό σημαίνει ότι, σε αυτήν την περίπτωση, ο νόμος και όλες οι επακόλουθες διαβουλεύσεις γι’ αυτόν αναφέρονται μόνο σε μοντέλα τεχνητής νοημοσύνης και τις παραμέτρους τους;^1^

Τους επόμενους μήνες και χρόνια, οι διαβουλεύσεις και η νομολογία μπορεί να φέρουν μεγαλύτερη σαφήνεια σε αυτές τις φαινομενικές αβεβαιότητες. Στο μεταξύ, οι ρυθμιστικές αρχές θα μπορούσαν να υποστηρίξουν μικρούς, ανεξάρτητους δημιουργούς αποφεύγοντας τη δυαδική χρήση της έννοιας του ανοιχτού κώδικα και εξετάζοντας αντ’ αυτού την ιδέα ενός φάσματος ανοιχτότητας, το οποίο περιγράφει καλύτερα τα υπάρχοντα συστήματα τεχνητής νοημοσύνης και τη στρατηγική κυκλοφορίας τους τόσο από μικρούς όσο και από μεγάλους οργανισμούς. Η πραγματικότητα των περισσότερων τεχνολογιών τεχνητής νοημοσύνης είναι ότι έχουν σημαντικά υψηλότερες απαιτήσεις για ανάπτυξη από ό,τι παραδοσιακά υποτίθεται στην ανάπτυξη λογισμικού. Επομένως, από τη μία πλευρά, οι μικροί προγραμματιστές πιθανότατα δεν θα μπορούν να τροποποιήσουν (και να επωφεληθούν από) συστήματα που συμμορφώνονται με το OSAID χωρίς πρόσβαση στα δεδομένα εκπαίδευσής τους. Από την άλλη πλευρά, οι κανονιστικές εξαιρέσεις θα μπορούσαν να καταλήξουν να ωφελούν κυρίως μεγαλύτερες εταιρείες.

Η εξισορρόπηση κινδύνων και καινοτομίας μέσω μιας κανονιστικής εξαίρεσης ανοιχτού κώδικα, που μπορεί να μην λαμβάνει υπόψη τα εμπόδια στην ανεξάρτητη παραγωγή τεχνητής νοημοσύνης και τους τρόπους με τους οποίους τα μοντέλα εισέρχονται στην αγορά, θα μπορούσε να δημιουργήσει μεγαλύτερο κίνδυνο για τους ανθρώπους, χωρίς να παρέχει πρόσθετες ευκαιρίες για καινοτομία.

Πηγή άρθρου: https://www.adalovelaceinstitute.org/blog/how-open-is-open-source-ai/

Leave a Comment

Social Media Auto Publish Powered By : XYZScripts.com