Η χρήση εφαρμογών τεχνητής νοημοσύνης, όπως το ChatGPT, έχει προκαλέσει τα τελευταία χρόνια επαναστατικές εξελίξεις στην επεξεργασία και παραγωγή κειμένου (και όχι μόνο). Είναι σημαντικό πάντα, όμως, να θυμόμαστε πως η χρήση της τεχνητής νοημοσύνης συνοδεύεται από σημαντικούς κινδύνους, ειδικά όταν πρόκειται για την κοινοποίηση ευαίσθητων δεδομένων. Χαρακτηριστικό το παράδειγμα της Samsung, η οποία απαγόρευσε τον Μάιο του 2023 την χρήση του ChatGPT και παρόμοιων εργαλείων μετά από διαρροή δεδομένων. Συγκεκριμένα, μηχανικοί της εταιρείας εισήγαγαν εσωτερικό πηγαίο κώδικα στην πλατφόρμα, με αποτέλεσμα να αποθηκευτεί σε εξωτερικούς διακομιστές, χωρίς δυνατότητα ανάκτησης ή διαγραφής τους. Έτσι, πολλοί χρήστες της πλατφόρμας μπορούσαν να δουν στις απαντήσεις που λάμβαναν, κώδικα που θεωρούταν πνευματική ιδιοκτησία της Samsung και είχαν δαπανήσει πολλά για να τον δημιουργήσουν. Οι χρήστες χάνουν τον έλεγχο μόλις οι πληροφορίες εισαχθούν. Δεν είναι όμως το πρόβλημα μόνο ότι οι πληροφορίες υπάρχουν και στους διακομιστές άλλων εταιρειών: Τα δεδομένα που εισάγονται σε ένα LLM χρησιμοποιούνται συχνά για την περαιτέρω εκπαίδευση του μοντέλου. Αυτό σημαίνει ότι ευαίσθητες πληροφορίες μπορεί να ενσωματωθούν στις απαντήσεις που παρέχονται σε άλλους χρήστες.
Είναι σημαντικό, λοιπόν, όταν χρησιμοποιούμε μοντέλα τεχνητής νοημοσύνης, να μην εισάγουμε πληροφορία που δεν θέλουμε να έχει κανείς άλλος, γιατί μέσα απο εκείνα, μπορεί να την αποκτήσει.
Πηγές: