κακόβουλο λογισμικό μεγάλα γλωσσικά μοντέλα
19
Μαρ

Κακόβουλο λογισμικό που τροφοδοτείται από AI εκμεταλλεύεται μεγάλα γλωσσικά μοντέλα

Νέο κακόβουλο λογισμικό που χρησιμοποιεί μεγάλα γλωσσικά μοντέλα (LLM) αποτελεί σημαντική απειλή για την κυβερνοασφάλεια, όπως τονίζεται σε πρόσφατη έκθεση του Recorded Future.

Χρησιμοποιώντας τη γενετική τεχνητή νοημοσύνη, οι δράστες μπορούν να τροποποιήσουν τον υφιστάμενο κώδικα κακόβουλου λογισμικού για να αποφύγουν την ανίχνευση από κανόνες YARA που βασίζονται σε συμβολοσειρές, μειώνοντας έτσι τις πιθανότητες ανίχνευσης. Αυτή η δυνατότητα επιτρέπει στους εισβολείς να διατηρήσουν την αρχική λειτουργικότητα του κακόβουλου λογισμικού, διασφαλίζοντας παράλληλα τη συντακτική ορθότητα του δημιουργούμενου κώδικα.

Αν και αυτή η τεχνική παρέχει έναν τρόπο παράκαμψης των συμβατικών μεθόδων ανίχνευσης, υπάρχουν περιορισμοί που σχετίζονται κυρίως με την ποσότητα κειμένου που ένα LLM μπορεί να επεξεργαστεί ταυτόχρονα. Αυτό καθιστά προβληματική την αποτελεσματική λειτουργία του σε μεγαλύτερες βάσεις κώδικα.

Πέρα από την αποφυγή ανίχνευσης, οι τεχνολογίες τεχνητής νοημοσύνης μπορούν να χρησιμοποιηθούν για διάφορους κακόβουλους σκοπούς. Μεταξύ αυτών περιλαμβάνεται η δημιουργία deepfakes με σκοπό την πλαστοπροσωπία ατόμων, η οποία μπορεί να χρησιμοποιηθεί σε επιχειρήσεις επηρεασμού και αναγνώρισης κρίσιμων υποδομών. Χρησιμοποιώντας πολυδιάστατα μοντέλα, οι εχθρικές οντότητες μπορούν να ανακτήσουν meta data από δημόσιες εικόνες και βίντεο, συλλέγοντας στρατηγικές πληροφορίες για μελλοντικές επιθέσεις.

Πρόσφατες ειδοποιήσεις από τη Microsoft και το OpenAI υποδεικνύουν ότι φορείς απειλών, όπως το APT28, έχουν αρχίσει να χρησιμοποιούν τα LLM για να αποκτήσουν βαθύτερη γνώση των πρωτοκόλλων δορυφορικής επικοινωνίας και τεχνολογιών απεικόνισης ραντάρ. Επισημαίνεται η σημασία για τους οργανισμούς να εξετάζουν προσεκτικά διαθέσιμες στο κοινό εικόνες ευαίσθητου εξοπλισμού και να λαμβάνουν κατάλληλα μέτρα για την αντιμετώπιση των κινδύνων.

μεγάλα γλωσσικά μοντέλα

Επιπλέον, έχει αποδειχθεί από ερευνητές ότι κακόβουλοι παράγοντες μπορούν να εκμεταλλευτούν εργαλεία που υποστηρίζονται από το LLM για να κάνουν jailbreak και να παράγουν επιβλαβές περιεχόμενο χρησιμοποιώντας εισόδους ASCII. Η επίθεση αυτή, γνωστή ως ArtPrompt, εκμεταλλεύεται την αδυναμία των LLM για να παρακάμψει τα μέτρα ασφαλείας και να προκαλέσει ανεπιθύμητες συμπεριφορές.

Συνολικά, η αυξανόμενη πολυπλοκότητα του κακόβουλου λογισμικού που βασίζεται στην τεχνητή νοημοσύνη αντιπροσωπεύει μια σημαντική πρόκληση για την κυβερνοασφάλεια, επιβάλλοντας προληπτικά μέτρα από τους φορείς για την αντιμετώπιση των αναδυόμενων απειλών και την μείωση των κινδύνων που προκύπτουν από την εκμετάλλευση της τεχνητής νοημοσύνης.