Διαρροή εμπιστευτικών πληροφοριών -κατά λάθος- από το ChatGPT της Samsung
Σε τρεις διαφορετικές περιπτώσεις, οι εργαζόμενοι εισήγαγαν ευαίσθητα δεδομένα στο μοντέλο AI.
Λιγότερο από ένα μήνα αφότου ο κολοσσός των ηλεκτρονικών Samsung παρουσίασε το ChatGPT για τους υπαλλήλους του, το μοντέλο τεχνητής νοημοσύνης (AI) έχει συνδεθεί με υποτιθέμενη διαρροή εμπιστευτικών πληροφοριών.
Ευαίσθητες πληροφορίες σχετικά με τα δεδομένα μέτρησης του εξοπλισμού ημιαγωγών της εταιρείας είναι μεταξύ των περιεχομένων που έχουν γίνει πλέον μέρος της μαθησιακής βάσης δεδομένων του ChatGPT.
Το συνομιλητικό chatbot ChatGPT δεν έχει εντυπωσιάσει μόνο μεμονωμένους χρήστες. Οι γιγάντιες εταιρείες, επίσης, έχουν εκπλαγεί από την ικανότητά της να συνοψίζει και να παραφράζει το περιεχόμενο και προσπαθούν να βοηθήσουν την παραγωγικότητα των εργαζομένων τους παρέχοντάς τους πρόσβαση στην υπολογιστική του ικανότητα.
Αν και αυτή είναι μια εξαιρετική πρωτοβουλία, μπορεί να πάει πολύ στραβά εάν οι εργαζόμενοι δεν έχουν εκπαιδευτεί επαρκώς σχετικά με το ποιες πληροφορίες μπορούν ή δεν μπορούν να κοινοποιηθούν με το μοντέλο AI, καθώς η Samsung μαθαίνει με τον δύσκολο τρόπο.
Τι πήγε στραβά στη Samsung;
Σύμφωνα με μια αναφορά του DigiTimes, οι υπάλληλοι της Samsung έλαβαν πρόσβαση στο ChatGPT το πολύ πριν από τρεις εβδομάδες.
Κατά τη διάρκεια της περιστασιακής χρήσης του εργαλείου, οι υπάλληλοι έκαναν σίγουρα ερωτήσεις και έλαβαν απαντήσεις, τις οποίες το εργαλείο χρησιμοποιεί ως εσωτερική βάση δεδομένων εκμάθησης για να βελτιώνει συνεχώς την απόδοσή του.
Είναι πιθανό ότι οι υπάλληλοι της Samsung δεν είχαν πλήρη επίγνωση του τρόπου λειτουργίας του εργαλείου AI, επειδή αν τους είχαν πει, σίγουρα δεν θα είχαν τοποθετήσει ευαίσθητες πληροφορίες στο μήνυμα κειμένου του εργαλείου.
Κάποιος μπορεί να υποθέσει ότι αυτό είναι αλήθεια, καθώς σύμφωνα με πληροφορίες συνέβη σε τρεις διαφορετικές περιπτώσεις στο σύντομο χρονικό διάστημα από τότε που έγινε διαθέσιμο το ChatGPT .
Το πρώτο περιστατικό φέρεται να συνέβη εντός του τμήματος Semiconductor and Device Solutions, όπου ένα μέλος του προσωπικού που εκτελούσε λογισμικό λήψης βάσης δεδομένων μέτρησης εξοπλισμού ημιαγωγών (DB) αντιμετώπισε πρόβλημα.
Η εταιρεία έχει πλέον εφαρμόσει ορισμένες δικλίδες ασφαλείας, όπως τον περιορισμό της χωρητικότητας κάθε ερώτησης σε όχι περισσότερο από 1.024 byte.
Η Samsung έδωσε επίσης οδηγίες στους υπαλλήλους της να είναι προσεκτικοί καθώς τα δεδομένα που εισάγονται στο ChatGPT μεταδίδονται σε εξωτερικούς διακομιστές και η εταιρεία δεν μπορεί να ανακτήσει δεδομένα εκροής.