Για παράδειγμα, τα συστήματα τεχνητής νοημοσύνης που επιτρέπουν την «κοινωνική βαθμολόγηση» από κυβερνήσεις ή εταιρείες θεωρούνται σαφής απειλή για τα θεμελιώδη δικαιώματα των ανθρώπων και, ως εκ τούτου, απαγορεύονται.
Υψηλός κίνδυνος
Τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, όπως το ιατρικό λογισμικό που βασίζεται στην τεχνητή νοημοσύνη ή τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται για προσλήψεις, πρέπει να συμμορφώνονται με αυστηρές απαιτήσεις, συμπεριλαμβανομένων συστημάτων μετριασμού του κινδύνου, υψηλής ποιότητας συνόλων δεδομένων, σαφών πληροφοριών για τους χρήστες, ανθρώπινης εποπτείας κ.λπ.
Περιορισμένος κίνδυνος
Συστήματα όπως τα διαλογικά ρομπότ (chatbots) πρέπει να ενημερώνουν σαφώς τους χρήστες ότι αλληλοεπιδρούν με μηχανή, ενώ ορισμένα περιεχόμενα που παράγονται από τεχνητή νοημοσύνη πρέπει να επισημαίνονται ως τέτοια.
Ελάχιστος κίνδυνος
Τα περισσότερα συστήματα τεχνητής νοημοσύνης, όπως τα φίλτρα ανεπιθύμητων μηνυμάτων και τα βιντεοπαιχνίδια που λειτουργούν με τεχνητή νοημοσύνη, δεν υπόκεινται σε καμία υποχρέωση βάσει της πράξης για την τεχνητή νοημοσύνη, αλλά οι εταιρείες μπορούν οικειοθελώς να υιοθετήσουν πρόσθετους κώδικες δεοντολογίας.