Η τεχνητή νοημοσύνη (ΑΙ) έχει μετακινηθεί από πειραματικές υλοποιήσεις στο επίκεντρο των προγραμμάτων κυβερνοασφάλειας. Στα SOCs, τα μοντέλα κάνουν triage σε alerts, συνοψίζουν περιστατικά και αναλύουν threat intelligence πολύ ταχύτερα από ανθρώπινες ομάδες. Την ίδια στιγμή, κακόβουλοι δράστες αξιοποιούν τις ίδιες δυνατότητες για ενίσχυση phishing επιθέσεων, ταχύτερο reconnaissance, μείωση κόστους επιθέσεων και απάτες μέσω deepfakes.

Βασίλης Μαρίτσας
Εταίρος, Υπηρεσίες Κυβερνοασφάλειας
Ειρήνη Σπυροπούλου
Director, Υπηρεσίες AI & Data
ΕΥ Ελλάδος www.ey.com/el_gr

Η τεχνητή νοημοσύνη (ΑΙ) έχει μετακινηθεί από πειραματικές υλοποιήσεις στο επίκεντρο των προγραμμάτων κυβερνοασφάλειας. Στα SOCs, τα μοντέλα κάνουν triage σε alerts, συνοψίζουν περιστατικά και αναλύουν threat intelligence πολύ ταχύτερα από ανθρώπινες ομάδες. Την ίδια στιγμή, κακόβουλοι δράστες αξιοποιούν τις ίδιες δυνατότητες για ενίσχυση phishing επιθέσεων, ταχύτερο reconnaissance, μείωση κόστους επιθέσεων και απάτες μέσω deepfakes.
Το AI δεν είναι ούτε πανάκεια ούτε απειλή από μόνη του· είναι ένας πολλαπλασιαστής ισχύος που απαιτεί σωστή διακυβέρνηση και ξεκάθαρα όρια.
Τα θετικά: Ταχύτερη ανίχνευση και αποτελεσματικότερη αντίδραση
Η αμυντική τεχνητή νοημοσύνη ανεβάζει τον πήχη στην ανίχνευση και στην απόκριση περιστατικών. Αναλύει logs, identity signals και UEBA πρότυπα για εντοπισμό ανωμαλιών, περιορίζοντας τα false positives και αναδεικνύοντας ενδείξεις παραβίασης σχεδόν σε πραγματικό χρόνο. Επιπλέον, συσχετίζει πηγές ανοικτού, κλειστού και dark web και μπορεί να αυτοματοποιήσει ενέργειες containment, όπως account quarantine ή host isolation. Η αποτελεσματικότητα μεγιστοποιείται όταν υπάρχει “Human in the Loop”, που επικυρώνει κρίσιμες ενέργειες και βελτιστοποιεί τα μοντέλα.
Generative τεχνικές ενισχύουν και τις θεμελιώδεις λειτουργίες: adaptive training υλικό, υποστήριξη στη σύνταξη πολιτικών και καλύτερη προτεραιοποίηση ευπαθειών με επιχειρησιακό context. Οι οργανισμοί που τις υιοθετούν νωρίς αναφέρουν ουσιαστικά κέρδη παραγωγικότητας, με την προϋπόθεση ότι η τελική ευθύνη λήψης αποφάσεων παραμένει σε ανθρώπους.
Τα αρνητικά: Οι επιθέσεις εξελίσσονται και κλιμακώνονται
Οι κακόβουλοι παράγοντες χρησιμοποιούν πλέον ΑΙ για αναβάθμιση των τακτικών τους. LLMs βελτιώνουν την ποιότητα phishing μηνυμάτων, εξατομικεύουν περιεχόμενο μέσω OSINT, παράγουν polymorphic malware που ξεφεύγει από signature-based εργαλεία και παρέχουν πρόσβαση σε τεχνικές που παλιότερα απαιτούσαν υψηλή εξειδίκευση.
Πέρα από automated recon και scanning, αναμένεται αύξηση επιθέσεων data poisoning στην εφοδιαστική αλυσίδα των μοντέλων και των pipelines εκπαίδευσης.
Η αλλοίωση δεδομένων εκπαίδευσης μπορεί να στρεβλώσει ανιχνεύσεις, να ενισχύσει το bias και να υπονομεύσει την εμπιστοσύνη στα αποτελέσματα. Η ακεραιότητα μοντέλων και δεδομένων πρέπει να αντιμετωπίζεται όπως η ακεραιότητα κώδικα, με επαλήθευση προέλευσης, επικύρωση και τακτικό red teaming.
Το επόμενο κύμα: Agentic AI
Η κυρίαρχη τάση του 2025 είναι το Agentic AI, συστήματα που σχεδιάζουν, αποφασίζουν και ενεργούν με ελάχιστο prompting. Στο cyber, οι AI agents υπόσχονται αυτόνομη απόκριση σε απειλές, προτεραιοποίηση patches και αυτοματοποίηση διαδικασιών.
Ωστόσο, η αυτονομία εισάγει νέους κινδύνους: δηλητηρίαση μνήμης, κατάχρηση εργαλείων, hallucinations σε agent workflows και εκτροπή ενεργειών από την αρχική αποστολή.
Η λύση βρίσκεται σε κλασικούς μηχανισμούς ασφαλείας: ελάχιστα δικαιώματα, σαφείς λίστες επιτρεπόμενων ενεργειών, sandboxes, ανίχνευση ανωμαλιών συμπεριφοράς, επεξήγησιμοτητα και ανθρώπινη έγκριση σε ενέργειες υψηλού ρίσκου.
Η διακυβέρνηση ως βασικός μοχλός ελέγχου
Αφού το AI υιοθετείται παντού, το διακυβέρνηση πρέπει να ακολουθήσει. Πάνω από τους μισούς οργανισμούς στερούνται ουσιαστικής διακυβέρνησης ασφαλείας ΑΙ πέρα από βασικές πολιτικές αποδεκτής χρήσης LLMs. Το κενό αυτό, αυξάνει νομικούς, λειτουργικούς και κινδύνους φήμης του οργανισμού.
Η ρεαλιστική προσέγγιση είναι η επέκταση, όχι αντικατάσταση, της υφιστάμενης διακυβέρνησης με AI-specific ελέγχους:
• σαφείς ρόλους και ευθύνες (RASCI)
• καταλόγους μοντέλων και ιχνηλασιμότητα δεδομένων
• standards για testing
• playbooks για περιστατικά που περιλαμβάνουν AI αποτυχίες ή adversarial γεγονότα
Οι οργανισμοί υιοθετούν KPIs διακυβέρνησης, όπως: ποσοστό συστημάτων ΑΙ με τρέχουσες αξιολογήσεις ρίσκου, επιτυχία adversarial simulations, χρόνος ανίχνευσης/αποκατάστασης αδυναμιών μοντέλων, επίπεδο explainability και ποσοστό εκπαίδευσης προσωπικού.
Ηθική και διαφάνεια: λειτουργικές, όχι θεωρητικές έννοιες
Η εμπιστοσύνη αποτελεί, πλέον, κοινή ευθύνη security, data και business teams. Αδιαφανείς «black box» αποφάσεις δεν είναι αποδεκτές σε forensics, HR ενέργειες ή πελατειακές διαφορές.
Δώστε προτεραιότητα σε transparency-by-design, fairness testing, privacy-enhancing τεχνολογίες και traceable audit logs.
Η ηθική λειτουργία μειώνει κινδύνους και σύντομα αναμένεται να αποτελεί κανονιστική υποχρέωση.
Ένα πρακτικό playbook για τους επόμενους 12 μήνες
- Απογραφή & ταξινόμηση: Καταγράψτε όλα τα AI συστήματα (συμπεριλαμβανομένων των λειτουργιών τρίτων προμηθευτών), μαζί με σκοπό, data sources, ιδιοκτησία και επιχειρησιακή κρισιμότητα.
- Θωράκιση pipeline: Θωρακίστε το training και το inference με access control, κρυπτογράφηση, dataset validation, signed models και supply chain ελέγχους για third-party μοντέλα/βιβλιοθήκες.
- Threat modeling AI: Προσθέστε prompt injection, data poisoning, model extraction και misuse στα risk assessments και διεξάγετε AI red teaming.
- Human-in-the-loop: Υποχρεωτικές εγκρίσεις για ενέργειες υψηλού κινδύνου και παρακολούθηση παρακάμψεων.
- Εστίαση στα βασικά: MFA, segmentation, EDR, patching με επιχειρησιακό context, email controls και εκπαιδευμένο προσωπικό, παραμένουν κρίσιμα και εξακολουθούν να αποτρέπουν τις περισσότερες επιθέσεις AI.
- Μέτρηση & αναφορά: Ενσωματώστε AI KPIs στις αναφορές προς τη διοίκηση, μαζί με τους υπόλοιπους δείκτες του προγράμματος κυβερνοασφάλειας.
Εν κατακλείδι
Το AI αναμένεται να επαναπροσδιορίσει την κυβερνοασφάλεια σε άμυνα και επίθεση. Οι οργανισμοί που θα διακριθούν, δεν θα είναι όσοι προσθέτουν ετικέτα AI παντού, ούτε όσοι την απαγορεύουν. Θα είναι εκείνοι που συνδυάζουν στοχευμένη αμυντική τεχνητή νοημοσύνη, διακυβέρνηση, ηθική και διαφάνεια, και σταθερή προσήλωση στα θεμελιώδη της ασφάλειας.






