Για παράδειγμα, τα συστήματα τεχνητής νοημοσύνης που επιτρέπουν την «κοινωνική βαθμολόγηση» από κυβερνήσεις ή εταιρείες θεωρούνται σαφής απειλή για τα θεμελιώδη δικαιώματα των ανθρώπων και, ως εκ τούτου, απαγορεύονται.
Υψηλός κίνδυνος
Τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, όπως το ιατρικό λογισμικό που βασίζεται στην τεχνητή νοημοσύνη ή τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται για προσλήψεις, πρέπει να συμμορφώνονται με αυστηρές απαιτήσεις, συμπεριλαμβανομένων συστημάτων μετριασμού του κινδύνου, υψηλής ποιότητας συνόλων δεδομένων, σαφών πληροφοριών για τους χρήστες, ανθρώπινης εποπτείας κ.λπ.
Περιορισμένος κίνδυνος
Συστήματα όπως τα διαλογικά ρομπότ (chatbots) πρέπει να ενημερώνουν σαφώς τους χρήστες ότι αλληλοεπιδρούν με μηχανή, ενώ ορισμένα περιεχόμενα που παράγονται από τεχνητή νοημοσύνη πρέπει να επισημαίνονται ως τέτοια.
Ελάχιστος κίνδυνος
Τα περισσότερα συστήματα τεχνητής νοημοσύνης, όπως τα φίλτρα ανεπιθύμητων μηνυμάτων και τα βιντεοπαιχνίδια που λειτουργούν με τεχνητή νοημοσύνη, δεν υπόκεινται σε καμία υποχρέωση βάσει της πράξης για την τεχνητή νοημοσύνη, αλλά οι εταιρείες μπορούν οικειοθελώς να υιοθετήσουν πρόσθετους κώδικες δεοντολογίας.
Οι παρούσες κατευθυντήριες γραμμές παρέχουν επισκόπηση των πρακτικών ΤΝ που θεωρούνται απαράδεκτες λόγω των δυνητικών κινδύνων τους για τις ευρωπαϊκές αξίες και τα θεμελιώδη δικαιώματα.
Η πράξη για την ΤΝ, η οποία αποσκοπεί στην προώθηση της καινοτομίας, διασφαλίζοντας παράλληλα υψηλά επίπεδα προστασίας της υγείας, της ασφάλειας και των θεμελιωδών δικαιωμάτων, ταξινομεί τα συστήματα ΤΝ σε διάφορες κατηγορίες κινδύνου, συμπεριλαμβανομένων των απαγορευμένων συστημάτων, των συστημάτων υψηλού κινδύνου και των συστημάτων που υπόκεινται σε υποχρεώσεις διαφάνειας.