Sven Pannewitz, Gestion des produits dans les domaines de l'automatisation, reichelt elektronik GmbH

« La décentralisation de l’intelligence artificielle à l’aide de carte intégrées équipées de TPU ouvre des horizons applicatifs qui auraient été inimaginables auparavant et augmente le panel de fonctionnalités des machines et appareils, chose qui aurait été impossible en s’appuyant sur des méthodes de programmation classiques, sinon au prix d’efforts titanesques. »
Tensor-Koprozessoren verleihen Embedded Computing KI-Fähigkeit

L’intelligence artificielle pour tous

Les applications d’intelligence artificielle (IA) sont particulièrement adaptées à la reconnaissance des formes et permettent une certaine flexibilité dans la prise de décisions, par exemple dans le cadre des systèmes d’assistance aux conducteurs embarqués dans les véhicules individuels ou des applications industrielles, à l’image du contrôle qualité. Grâce aux coprocesseurs TPU spécialisés et à leur intégration au sein d’ordinateurs monocartes ou de cartes Computer-on-Module (COM), il est désormais possible d’exécuter des opérations d’IA qui nécessitent énormément de puissance de calcul à l’endroit où celles-ci sont requises. 

L’intelligence artificielle ne fait plus simplement office de concept à la mode et il ne s’agit plus d’un domaine réservé à quelques mathématiciens spécialisés. Cette technologie exploite des réseaux neuronaux artificiels qui s’inspirent du fonctionnement du cerveau humain afin de traiter l’information avec un degré d’abstraction élevé.   

Si l’IA ne dote pas les appareils et les machines de la faculté de penser, elle leur permet toutefois d’établir des analogies en se fondant sur les informations historiques dont elles disposent. Grâce à cette technologie, appareils et machines sont en mesure d’apprendre des méthodes de collecte d’expérience fondées sur les données qui s’appuient sur des modèles statistiques plus vastes, telles que le machine learning ou le deep learning.

Des machines plus réactives

Ces capacités d’apprentissage s’accompagnent de plusieurs avantages. En premier lieu, les appareils et les machines sont à même de réagir dans des situations opérationnelles imprévues sans que le logiciel ne soit forcé de cartographier en détail et dès le départ, toutes les éventualités liées à leur fonctionnement. Cela permet de les mettre en service équipés de capacités de base en matière de programmation et d’auto-optimisation en fonctionnement. Dans le cadre d’applications industrielles, de tels algorithmes peuvent notamment être utilisés pour faire gagner du temps aux machines en utilisant le positionnement prédictif des outils et des pièces.

En outre, grâce au machine learning et au deep learning, il est possible de minimiser les efforts liés au développement logiciel. En effet, une partie des ajustements peut être effectuée au cours des phases d’entrainement aux situations opérationnelles. Il n’est absolument pas nécessaire que celles-ci aient lieu lorsque les machines sont en marche. La plus grande partie – en particulier celle qui concernent les fonctionnalités générales les plus abstraites – peut être réalisée à l’avance à l’aide de simulations par ordinateur, en toute sécurité et en effectuant bien plus de cycles d’entrainement que dans le monde réel.

Des méthodes de traitement de l’information sophistiquées

Il existe une large gamme d’applications pour l’intelligence artificielle, qui vont de la reconnaissance vocale au contrôle qualité en passant par l’identification des individus ou encore la reconnaissance des objets et de leur positionnement dans l’espace, de leur taille et de leurs caractéristiques. Un autre avantage lié à cette technologie réside dans le fait que les réseaux neuronaux artificiels sont parfaitement adaptés à l’analyse en profondeur de vastes quantités de données, notamment pour une reconnaissance des formes avec un degré de fiabilité élevé dans le cas de données sonores ou visuelles – sons, images et vidéos.

Toutefois, ces méthodes sont extrêmement exigeantes en termes de puissance de calcul. Par le passé, il était indispensable d’externaliser les applications d’IA et de les migrer vers des systèmes à haute performance. De telles applications sont souvent proposées dans le cloud sous forme de solutions logicielles as-a-Service (SaaS).

En raison des limites liées à la bande passante, il était souvent impossible de traiter l’information en temps réel. De plus, cela débouchait fréquemment sur des coûts de transfert de données élevés via les réseaux de télécommunication publics. Par ailleurs, en raison des volumes considérables de données, de nombreux utilisateurs se montrent inquiets quant à la fiabilité des connexions et à la perte de souveraineté concernant leurs données.

Tensor Processing Units
Les Tensor Processing Units ou TPU sont des ordinateurs monocartes qui permettent d’exécuter des applications d’IA en périphérie ou directement au niveau de l’appareil et ce, à un niveau de performation qui n’était auparavant atteint que dans le cloud.

Une intelligence décentralisée

La transformation numérique et l’Industrie 4.0 nécessitent une refonte systémique afin de s’écarter des structures centralisées au profit du traitement décentralisé des données. Cela a notamment un impact sur les appareils et les machines. En effet, au lieu de développer eux-mêmes le matériel à partir de zéro, il n’est pas rare que les fabricants intègrent aujourd’hui à leurs produits des ordinateurs monocartes, des contrôleurs ou des Computer-on-Module standardisés.

Il existe une large variété de produits et ceux-ci sont également disponibles dans des versions robustes qui résistent aux variations de température liées à un usage industriel. Le faible coût et les dimensions réduites de la puissance de calcul intégrée jouent un rôle important dans le fait de mener à bien des tâches de contrôle individuelles et de traitement des données directement à l’endroit où se déroule l’action.

Les cartes intégrées jouent le rôle de processeurs et communiquent au sein de l’Internet des Objets à la fois entre elles et avec des services de niveau supérieur, mais également de plus en plus fréquemment avec des services cloud. Là encore, une transition s’opère qui vise à s’éloigner du traitement centralisé à proprement parler. Au lieu d’un modèle qui repose sur une intelligence centrale, les appareils en périphérie sont connectés à des serveurs edge décentralisés, qui sont souvent consacrés à des tâches spécifiques.

Des approches différentes en matière d‘IA

Afin de ne pas dépendre de la bande passante pour la transmission des données, des opérations particulièrement urgentes, telles que les calculs d’inférence de l’intelligence artificielle, sont de plus en plus fréquemment réalisées au niveau de l’appareil, en « périphérie » des usines.

À ces fins, les principaux fabricants de semi-conducteurs proposent d’ores et déjà des processeurs puissants (Central Processing Units ou CPU) dotés de fonctions directement intégrées pour le traitement dédié d’applications d’IA. Etant donné que les calculs d’inférence sont relativement similaires au traitement de l’image, des processeurs graphiques puissants (Graphic Processing Units ou GPU) sont encore mieux adaptés que les processeurs traditionnels pour le traitement d’un grand nombre de tâches d’IA. Certains fabricants de cartes graphiques renommés se sont donc mêlés à la course et proposent avec leur matériel des outils de développement complémentaires spécifiquement conçus pour les applications d’IA.

Récemment, de nombreux fabricants de semi-conducteurs ont procédé au lancement d’accélérateurs spécifiques pour l’IA, appelés Tensor Processing Units (coprocesseurs TPU), à l’image du coprocesseur Coral de Google. Encore plus que les processeurs graphiques, ceux-ci déchargent le processeur principal des opérations d’IA particulièrement gourmandes en puissance de calcul, car ils sont pré-entrainés pour gérer une partie d’entre elles. Certains coprocesseurs TPU, comme l’accélérateur Hailo-8TM, avec ses 26 téra-opérations par seconde (TOPS), sont particulièrement rapides en raison de leurs mémoires intégrées.

L’indépendance via l’IA locale

Dans le même temps, les principaux fabricants de cartes de développement, d’ordinateurs monocartes et de Computer-on-Module proposent des produits de toutes tailles avec des niveaux de performance différents équipés de coprocesseurs TPU intégrés. Cela permet l’exécution d’applications d’IA en temps réel en périphérie des réseaux, voire au niveau de l’appareil, c’est-à-dire directement à l’endroit où l’action a lieu. Cela implique que des machines et des appareils extrêmement compacts peuvent être assez facilement dotés de capacités de machine learning ou de deep learning.

La décentralisation de l’intelligence artificielle ouvre des horizons applicatifs qui auraient été inimaginables auparavant. Cela permet aux développeurs d’appareils et de machines de les concevoir de telle manière que leur panel de fonctionnalités augmente au cours de leur fonctionnement. Il devient alors possible de couvrir un champ d’applications qui aurait été impossible à atteindre à l’aide de méthodes de programmation classiques, sinon au prix d’efforts titanesques.

Or, ces évolutions favorisent et facilitent la modularisation des machines de grande taille. Des modules et des assemblages individuels et semi-autonomes sont en mesure d’exploiter les capacités d’IA intégrées pour se coordonner entre eux. De cette manière, certaines résolutions de problèmes relatifs à l’interaction des différentes parties du système entre elles peuvent être déléguées à ces composants. Par ailleurs, cela permet d’optimiser le fonctionnement d’ensemble de la machine ou du système grâce à la coordination mutuelle des différents éléments individuels qui les composent.

Une refonte nécessaire

La prise en considération de différents objectifs en matière d’optimisation rend la tâche multi-dimensionnelle. Cet exemple n’est pas le seul à montrer que l’IA ne rend en aucun cas superflus les développeurs logiciels et les programmeurs de systèmes de commande. Cette technologie leur permet au contraire de tester différentes approches pour résoudre les problèmes qu’ils rencontrent et leur fournit d’autres outils souvent plus adaptés.

Néanmoins, afin de maîtriser ces derniers, il est nécessaire de passer par une phase d’apprentissage et de mise en pratique. Il est également indispensable d’opérer une transition culturelle afin de s’écarter de l’approche séquentielle encore largement répandue concernant les commandes, la régulation et l’automatisation.

L’IA ne dote pas les appareils et les machines de la faculté de penser, mais elle leur permet d’apprendre des méthodes de collecte d’expérience fondées sur les données, telles que le machine learning ou le deep learning.
L’IA ne dote pas les appareils et les machines de la faculté de penser, mais elle leur permet d’apprendre des méthodes de collecte d’expérience fondées sur les données, telles que le machine learning ou le deep learning.

Images : Adobe Stock

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *