Chats, algorithmes et attentes – Huawei BLOG


Un jour, mon collègue – un homme de grande connaissance technique et un chat – a installé des caméras intelligentes à la maison pour la sécurité. Alimentées par l’IA, ces caméras déclencheraient une alarme lorsqu’un mouvement était détecté dans sa maison. Même si cela sonnait bien en principe et que mon collègue pouvait voir à distance ce qui se passait dans la maison, il a fini par désactiver la fonctionnalité d’intelligence artificielle plus avancée. Après avoir essayé de configurer les détecteurs de mouvement du système pour ignorer le chat, il a décidé qu’il était plus important de bien dormir que d’être constamment alerté des mouvements.

La solution offrait une fonctionnalité de détection de mouvement de base qui ne répondait pas aux attentes réelles. Et bien que potentiellement incroyable, l’IA peut parfois ne pas répondre aux attentes si elle n’est pas abordée avec une certaine flexibilité.

Nous vivons dans une
monde qui n’est confiné ni par nos propres attentes ni par l’IA prédéfinie
des modèles. Les événements qui nous déroutent peuvent aussi confondre les machines si l’incertitude est
introduit à un degré auquel l’IA ne s’attend pas ou –
plus précisément – n’a pas été formé pour s’attendre.

Qu’il s’agisse de chats ou d’un événement de cygne noir, divers facteurs sont des intrants pour un cerveau artificiel qui peut réagir à des stimuli imprévisibles. Dans sa forme actuelle, l’IA peut être «fragile». Des données inattendues peuvent mettre les systèmes d’IA en difficulté, nécessitant l’interprétation d’un opérateur humain. Comme les gens qui ont affaire à des centres de données ont tendance à le dire, le système a tendance à avoir le hoquet quand il n’y a personne autour

Avec notre dépendance croissante
sur la technologie, une IA impuissante en attente de guidage manuel n’ajoute pas à la
fiabilité du système. Souvent, nous ne savons pas comment le modèle réagira. Un neural
Le réseau, par exemple, est essentiellement une boîte noire. Il n’ya aucun moyen de prévoir ou
comprendre son comportement – on ne peut que le tester. Certains événements se produisent extrêmement
rarement, disons une fois tous les cent ans. Même si de telles conditions peuvent être testées
lors d’un processus de simulation, des bugs sont susceptibles de se produire dans la vraie vie.

En cas d’événement ou d’urgence
qui jette tous les paramètres hors de la plage normale, les modèles d’IA peuvent nécessiter une période de
le temps d’apprendre à agir dans une telle situation. Mais c’est le noeud du problème
– une urgence est une situation inattendue, mais qui nécessite une
action. Là où un être humain a naturellement un instinct de survie, une machine n’a pas
en avoir un – il ne fait que les tâches pour lesquelles il est formé.

Nous sommes désormais en mesure de créer
machines d’une puissance de calcul incroyable, mais
La mise en œuvre réussie de l’IA dépend toujours fortement des personnes. Et actuellement
il ne semble pas y avoir assez de monde pour faire le tour.

Lire la suite: Pourquoi devons-nous fermer le numérique
Écart de compétences

Alors, quel est le potentiel
stratégies pour faire face à la fragilité apparente de l’IA?

Redondance

Pour résoudre le problème, un certain niveau de redondance doit être introduit dans le système – humain ou IA – pour prendre le relais dans un scénario d’urgence.

Humain: le système pourrait s’arrêter et
recours à un opérateur manuel chaque fois que la situation est incertaine. Dans ce
cas, le propriétaire du chat recevrait une notification – pas une alarme – pour vérifier
situation, plutôt que l’IA mettant en œuvre un plan d’action incorrect. Il
ajouter une deuxième couche de défense en cas de situations inattendues, tout en
automatiser les réponses la plupart du temps. L’inconvénient d’une telle approche est
que le temps de réponse en cas d’urgence augmente considérablement et ne serait pas
convient aux systèmes critiques tels que les soins de santé, l’automatisation industrielle ou
véhicules sans conducteur.

AI: nous pourrions déployer plusieurs
modèles avec des conditions de bordure qui déclenchent chaque algorithme le cas échéant. Dans
effet, cela fonctionne comme une redondance AI intégrée pour refléter le «meilleur algorithme»,
reflétant le cas où chacun a des domaines pour lesquels il est optimisé et d’autres où
ce n’est pas optimal. La solution pourrait avoir plusieurs algorithmes d’IA fonctionnant dans
parallèle, où certains fonctionnent mieux pendant les opérations normales et d’autres
optimisé pour les urgences. Une telle approche pourrait potentiellement permettre une
transition d’un algorithme à un autre, en ayant le meilleur du meilleur modèle
travaillant à chaque fois. L’inconvénient est qu’il augmente la complexité de la solution,
ce qui peut entraîner une augmentation des coûts et des besoins d’entretien.

IA collaborative

Le système peut fonctionner à son
mieux lorsque vous communiquez avec d’autres systèmes similaires. Ceci est une collaboration
approche similaire à celle que nous voyons en cybersécurité. Les équipes fournissent des informations en retour
dans le système afin que tous les éléments du réseau puissent rester à jour en tant que nouvelles menaces
émerger. Un tel déploiement présente des avantages évidents, car chaque installation peut
exploitez potentiellement un bassin de sagesse bien plus grand. Cela dit, les problèmes de confidentialité et un
le manque de cadres pour le partage de ces informations peut entraver son adoption.

Notre objectif ultime serait bien sûr
essayez de créer un modèle omniprésent qui inclut toutes les conditions possibles, mais
jusque-là – comme l’IA – nous ne pouvons que continuer à apprendre.

Lectures complémentaires:


Avis de non-responsabilité: Toutes les opinions et / ou opinions exprimées dans cet article par des auteurs ou contributeurs individuels sont leurs opinions et / ou opinions personnelles et ne reflètent pas nécessairement les vues et / ou opinions de Huawei Technologies.

Soyez le premier à commenter

Poster un Commentaire

Votre adresse de messagerie ne sera pas publiée.


*