Ευρωπαϊκός Κανονισμός  Τεχνητής Νοημοσύνης στην Κύπρο

Εποπτεία για μια πιο Έξυπνη, Ασφαλή και Υπεύθυνη ΤΝ

Τι είναι ο Ευρωπαϊκός κανονισμός για την Τεχνητή Νοημοσύνη;

Ο Ευρωπαϊκός κανονισμός για την Τεχνητή Νοημοσύνη (Κανονισμός (ΕΕ) 2024/1689) είναι ο πρώτος ολοκληρωμένος νόμος στον κόσμο που ρυθμίζει την τεχνητή νοημοσύνη (ΤΝ) εντός της Ευρωπαϊκής Ένωσης, θεσπίζοντας ένα ενιαίο πλαίσιο σε όλες τις χώρες της ΕΕ με μία προσέγγιση βάσει κινδύνου για να διασφαλιστεί ότι τα συστήματα ΤΝ είναι αξιόπιστα, ασφαλή και τηρούν τα θεμελιώδη ανθρώπινα δικαιώματα. Ισχύει για τους παρόχους και τους φορείς ανάπτυξης ΤΝ, επιβάλλοντας διαφορετικές υποχρεώσεις βάσει ενός συστήματος κινδύνου τεσσάρων επιπέδων (μη αποδεκτός, υψηλός, περιορισμένος και ελάχιστος κίνδυνος), με ολοκληρωτικές απαγορεύσεις για συστήματα ΤΝ μη αποδεκτού κινδύνου και αυστηρές απαιτήσεις για συστήματα υψηλού κινδύνου, όπως αυτά που χρησιμοποιούνται στην εκπαίδευση ή σε κρίσιμες υποδομές.

Σκοπός του κανονισμού για την τεχνητή νοημοσύνη

  • Να διασφαλίσει ότι τα συστήματα τεχνητής νοημοσύνης είναι ασφαλή και σέβονται τις αξίες της ΕΕ

  • Να δημιουργήσει νομική βεβαιότητα για τις επιχειρήσεις που χρησιμοποιούν τεχνητή νοημοσύνη

  • Να προωθήσει την καινοτομία ελαχιστοποιώντας παράλληλα τον κίνδυνο

  • Να προστατεύσει τους ανθρώπους από επιβλαβείς ή μεροληπτικές εφαρμογές τεχνητής νοημοσύνης

Πεδίο Εφαρμογής

  • Ισχύει για παρόχους, φορείς εφαρμογής, εισαγωγείς και διανομείς συστημάτων AI στην ΕΕ

  • Καλύπτει συστήματα AI που χρησιμοποιούνται σε προϊόντα, υπηρεσίες, δημόσια διοίκηση και άλλα, συμπεριλαμβανομένων της υγειονομικής περίθαλψης, των χρηματοοικονομικών, της εκπαίδευσης και της επιβολής του νόμου

  • Ισχύει ανεξάρτητα από το αν ο πάροχος έχει έδρα εντός ή εκτός ΕΕ, αρκεί το σύστημα AI να χρησιμοποιείται στην αγορά της ΕΕ

Ποιοι θεωρούν:

Φορέας εφαρμογής

Φορέας εφαρμογής

Εισαγωγέας

Εισαγωγέας

Φορέας εκμετάλλευσης

Φορέας εκμετάλλευσης

Διανομέας

Διανομέας

Το κανονιστικό πλαίσιο για την τεχνητή νοημοσύνη

Τα τέσσερα επίπεδα κινδύνου

Ο Ευρωπαϊκός κανονισμός για την Τεχνητή Νοημοσύνη (Κανονισμός (ΕΕ) 2024/1689) εισάγει μια πρωτοποριακή κανονιστική προσέγγιση για την Τεχνητή Νοημοσύνη, βασισμένη σε ένα πλαίσιο βασισμένο στον κίνδυνο. Αυτό το πλαίσιο ταξινομεί τα συστήματα Τεχνητής Νοημοσύνης σε τέσσερις κατηγορίες κινδύνου, δομημένες ως πυραμίδα: όσο υψηλότερος είναι ο κίνδυνος, τόσο αυστηρότερη είναι η ρύθμιση.

Μη αποδεκτός κίνδυνος

Υψηλός κίνδυνος

Περιορισμένος κίνδυνος

Ελάχιστος κίνδυνος

Χρονολόγιο

  1. 01/08/2024

    Ο κανονισμός τίθεται σε ισχύ

  2. 02/11/2024

    Κάθε Κράτος Μέλος ορίζει τις δημόσιες αρχές ή τους φορείς που είναι υπεύθυνοι για την προστασία των θεμελιωδών δικαιωμάτων και δημοσιοποιεί μια λίστα με αυτούς. Τα Κράτη Μέλη κοινοποιούν τη λίστα στην Επιτροπή και στα υπόλοιπα Κράτη Μέλη και διατηρούν τη λίστα ενημερωμένη. (άρθρο 77)

  3. 02/02/2025

    Άρχισαν να ισχύουν οι ακόλουθες πρόνοιες:

    • Απαγορευμένα συστήματα Τεχνητής Νοημοσύνης (άρθρο 5)
    • Ορισμός συστήματος Τεχνητής Νοημοσύνης (άρθρο 3(1))

    Γραμματισμός Τεχνητής Νοημοσύνης (άρθρο 4)

  4. 02/05/2025

    Ο Κώδικας πρακτικής για τα μοντέλα τεχνητής νοημοσύνης γενικού σκοπού (GPAI) δημοσιεύτηκε (άρθρο 56)

  5. 02/08/2025

    Οι ακόλουθες πρόνοιες αρχίζουν να ισχύουν:

    • Μοντέλα GPAI (Κεφάλαιο V)
    • Κοινοποιούσες αρχές (Κεφάλαιο III, Τμήμα 4)
    • Διακυβέρνηση (Κεφάλαιο VII)
    • Εμπιστευτικότητα (άρθρο 78)
    • Ποινές (άρθρα 99 και 100)

     

    Οι πάροχοι μοντέλων GPAI πρέπει να συμμορφώνονται με τον Νόμο για την Τεχνητή Νοημοσύνη.

    Σημείωση: οι πάροχοι που έχουν διαθέσει μοντέλα GPAI στην αγορά πριν από τις 2 Αυγούστου 2025 πρέπει να συμμορφωθούν με τον Κανονισμό της Τεχνητή Νοημοσύνη έως τις 2 Αυγούστου 2027 (άρθρο 111(3))

  6. 02/02/2026

    Προθεσμία για την Επιτροπή να παρέχει:

    • κατευθυντήριες οδηγίες που να περιγράφουν πώς θα πρέπει να εφαρμόζονται στην πράξη οι πρόνοιες σχετικά με την ταξινόμηση των συστημάτων ΤΝ υψηλού κινδύνου (άρθρο 6(5))
    • ένα πρότυπο για ένα σχέδιο παρακολούθησης μετά τη διάθεση στην αγορά για συστήματα ΤΝ υψηλού κινδύνου (άρθρο 72)
  7. 02/08/2026

    Γενική ημερομηνία εφαρμογής του Κανονισμού για την ΤΝ:

    • Εκτός από τις διατάξεις που αφορούν συστήματα ΤΝ υψηλού κινδύνου σύμφωνα με το εναρμονισμένο δίκαιο της ΕΕ (άρθρο 6(1) και 113, παράρτημα Ι), οι υπόλοιπες διατάξεις του Νόμου για την ΤΝ αρχίζουν να εφαρμόζονται.
    • Ο Νόμος για την ΤΝ εφαρμόζεται στα συστήματα ΤΝ που είχαν τεθεί στην αγορά πριν από αυτή την ημερομηνία, μόνο εφόσον αυτά τα συστήματα υποβληθούν σε σημαντικές αλλαγές μετά από αυτή την ημερομηνία (άρθρο 111(2)).

    Τα κράτη μέλη έχουν προθεσμία για να διασφαλίσουν ότι έχει δημιουργηθεί τουλάχιστον ένα εθνικό ρυθμιστικό δοκιμαστήριο (regulatory sandbox) για την τεχνητή νοημοσύνη από τις αρμόδιες αρχές τους. Μέχρι αυτή την ημερομηνία, θα πρέπει να έχει τεθεί σε λειτουργία. (άρθρο 57(1))

  8. 02/08/2027

    Οι πρόνοιες του Νόμου περί Τεχνητής Νοημοσύνης για τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου που καλύπτονται από την ενωσιακή νομοθεσία εναρμόνισης αρχίζουν να εφαρμόζονται (άρθρα 6(1) και 113, παράρτημα Ι).

    Oι πάροχοι μοντέλων GPAI που είχαν τεθεί στην αγορά πριν τις 2 Αυγούστου 2025, πρέπει να λάβουν τα απαιτούμενα μέτρα για να συμμορφωθούν με τον νόμο μέχρι αυτήν την ημερομηνία. (άρθρο 111(3))

  9. 31/12/2030

    Τα συστήματα ΤΝ που αποτελούν στοιχεία μεγάλων συστημάτων Τεχνολογιών Πληροφορικής (ΤΠ) που αναφέρονται στο παράρτημα X πριν από τις 02 Αυγούστου 2027 θα πρέπει να συμμορφώνονται με τη Κανονισμό της ΤΝ έως τις 31 Δεκ. 2030 (άρθ. 111(1)).

Άρθρα για το AI

Ελληνικό Κείμενο Δοκιμής

Πέμπτη, 23 Οκτωβρίου 2025

"On the other hand, we denounce with righteous indignation and dislike men who are so beguiled and demoralized by the charms of pleasure of the moment, so blinded by desire, that they cannot foresee the pain and trouble that are bound to ensue; and equal blame belongs to those who fail in their duty through weakness of will, which is the same as saying through shrinking from toil and pain.