Για παράδειγμα, τα συστήματα τεχνητής νοημοσύνης που επιτρέπουν την «κοινωνική βαθμολόγηση» από κυβερνήσεις ή εταιρείες θεωρούνται σαφής απειλή για τα θεμελιώδη δικαιώματα των ανθρώπων και, ως εκ τούτου, απαγορεύονται.
Υψηλός κίνδυνος
Τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, όπως το ιατρικό λογισμικό που βασίζεται στην τεχνητή νοημοσύνη ή τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται για προσλήψεις, πρέπει να συμμορφώνονται με αυστηρές απαιτήσεις, συμπεριλαμβανομένων συστημάτων μετριασμού του κινδύνου, υψηλής ποιότητας συνόλων δεδομένων, σαφών πληροφοριών για τους χρήστες, ανθρώπινης εποπτείας κ.λπ.
Περιορισμένος κίνδυνος
Συστήματα όπως τα διαλογικά ρομπότ (chatbots) πρέπει να ενημερώνουν σαφώς τους χρήστες ότι αλληλοεπιδρούν με μηχανή, ενώ ορισμένα περιεχόμενα που παράγονται από τεχνητή νοημοσύνη πρέπει να επισημαίνονται ως τέτοια.
Ελάχιστος κίνδυνος
Τα περισσότερα συστήματα τεχνητής νοημοσύνης, όπως τα φίλτρα ανεπιθύμητων μηνυμάτων και τα βιντεοπαιχνίδια που λειτουργούν με τεχνητή νοημοσύνη, δεν υπόκεινται σε καμία υποχρέωση βάσει της πράξης για την τεχνητή νοημοσύνη, αλλά οι εταιρείες μπορούν οικειοθελώς να υιοθετήσουν πρόσθετους κώδικες δεοντολογίας.
Οι κατευθυντήριες γραμμές σχετικά με τον ορισμό του συστήματος ΤΝ εξηγούν την πρακτική εφαρμογή της νομικής έννοιας, όπως κατοχυρώνεται στην πράξη για την ΤΝ.
Με την έκδοση κατευθυντήριων γραμμών σχετικά με τον ορισμό του συστήματος ΤΝ, η Επιτροπή έχει ως στόχο να συνδράμει τους παρόχους και άλλα σχετικά πρόσωπα στον προσδιορισμό του κατά πόσον ένα σύστημα λογισμικού αποτελεί σύστημα ΤΝ, ώστε να διευκολυνθεί η αποτελεσματική εφαρμογή των κανόνων.