Computing „at the Edge“: Künstliche Intelligenz überall hinbringen
Von José Luis Espinosa, Chefingenieur/Manager – Ubotica Technologies und außerordentlicher Professor am ESI-UCLM.
Wie kommen wir zur heutigen künstlichen Intelligenz?
Der jüngste Aufstieg der künstlichen Intelligenz ist so unbestreitbar, dass sie sich in der Presse und in der allgemeinen Ideologie einen Platz erobert hat. Heutzutage fällt es schwer, noch nichts von seinen neuen Anwendungen gehört zu haben, darunter die Integration in autonome Autos oder Roboter, die Unterstützung bei der medizinischen Diagnose oder andere generative Systeme wie z ChatGPT o von·E.
Was vielleicht überraschend erscheint, ist, dass die Grundkonzepte dieser Systeme viele Jahre zurückreichen. Neuronale Netze haben ihren ersten Ursprung im Jahr 1943 [1]. Doch erst in den letzten zwei Jahrzehnten wurden die notwendigen Voraussetzungen für den Boom in der Entwicklung künstlicher Intelligenzsysteme geschaffen [2], dank:
1) Die Entwicklung der Verarbeitungshardware durch den Einsatz von Grafikkarten (GPUs), die den großen Rechenbedarf abdecken, den diese Systeme erlernen müssen.
2) Big Data, Bereitstellung der notwendigen Datenmenge, die für diese Art von Techniken erforderlich ist.
3) Die Entwicklung von Software und Deep-Learning-Techniken.
"Künstliche Intelligenz"am Rand"
Die Weiterentwicklung der Techniken der künstlichen Intelligenz hat zur Entwicklung immer leistungsfähigerer, aber auch komplexerer intelligenter Systeme geführt, was den Einsatz von Hochleistungssystemen oder Cloud-Computing-Ressourcen erforderlich macht. Aber was passiert, wenn wir Einschränkungen haben, die uns daran hindern, diese Ressourcen zur Integration unseres intelligenten Systems zu nutzen? Ein klares Beispiel wäre der Hauptbereich, in dem wir im Unternehmen arbeiten Ubotika, worum es geht Bereitstellung von Autonomie und Intelligenz für im Weltraum eingesetzte Systeme, was derzeit „die letzte Grenze“ für den Menschen wäre.
Einer der Fälle, in denen diese Einschränkungen noch drastischer sind, sind Nanosatelliten. Diese Kleinsatelliten boomen dank der Investitionen verschiedener Raumfahrtagenturen wie der ESA oder NASA und Firmen mögen SpaceX aufgrund ihrer relativ geringen Kosten und der Möglichkeiten, die sie bieten. Dennoch verfügen diese Geräte nicht über die gleichen Kommunikationsfähigkeiten mit der Erde wie ein größerer Satellit.
In diesen Fällen kommt es auf das Rechnen an.am Rand" Verlagerung der Ausführung von Algorithmen der künstlichen Intelligenz direkt an den Ort, an dem die Informationen erfasst werden. Dieser Ansatz hat mehrere Vorteile:
1) Datenschutz. Durch die Durchführung von Vorgängen an dem Ort, an dem die Daten erfasst werden, ist es nicht notwendig, so sensible Informationen wie Bilder über das Netzwerk zu senden.
2) Reduzierte Latenz. Da diese Daten nicht gesendet und auf den Empfang der Ergebnisse gewartet werden muss, kann das Gerät selbst in kurzer Zeit eine Entscheidung treffen. Wenn beispielsweise ein Nanosatellit oder ein Rover ein Hindernis entdeckt, könnte er autonom entscheiden, wie er diesem am besten ausweichen kann.
3) Reduzierung der erforderlichen Bandbreite. Dies gilt insbesondere für den Anwendungsfall von Nanosatelliten zur Erdbeobachtung. Diese Geräte erfassen große Bilder (mehrere GiB), senden Informationen jedoch nur sehr langsam an die Erde, was das ständige Senden von Informationen zur Verarbeitung an eine terrestrische Basis unmöglich macht. Dank der Informatikam Rand„Es wäre einfach, nur die Informationen zu senden, die bei der Verarbeitung der Bilder gewonnen wurden, wie beispielsweise die Benachrichtigung über einen Notfall aufgrund der Entdeckung eines Brandes oder eines anderen gefährlichen Ereignisses.
Was ist auf technologischer Ebene notwendig?
Um dieses Paradigma anzuwenden, sind zwei Faktoren notwendig:
1) Die Entwicklung spezifischer eingebetteter Systeme für die Ausführung von Anwendungen der künstlichen Intelligenz. Obwohl diese Systeme als Hauptmerkmal a haben müssen hohe Rechenleistung, es ist auch notwendig, dass sie eine haben Größe reduziert und geringer Energieverbrauch, um in den Weltraum geschickt zu werden. Dies ist der Fall unser XE2-Board, basierend auf den von Intel Movidius entwickelten Myriad-Geräten, die wir bei Ubotica in allen Arten von Entwicklungen und Lösungen im Zusammenhang mit dem Luft- und Raumfahrtsektor und der Industrie 4.0 verwenden, die aber auch in anderen sehr restriktiven Situationen eingesetzt wurden, wie z Erkennung von Wilderern in Schutzgebieten.
2) La Einsatz spezifischer Techniken die es uns ermöglichen, Systeme der künstlichen Intelligenz innerhalb dieser Hardware zu verwenden, da es trotz der hohen Rechenkapazität aufgrund von Größen- und Verbrauchsbeschränkungen schwierig ist, die gleiche Leistung wie eine GPU zu erzielen. Aus diesem Grund werden in vielen Fällen reduzierte Versionen der Modelle verwendet, die in komplexeren Systemen verwendet werden, oder die Präzision der Operationen wird verringert, indem weniger Bits zum Speichern von Gleitkommawerten verwendet werden (z. B. Verwendung von FP16 anstelle von FP32). oder die Verwendung von Quantisierungstechniken, die die Anzahl möglicher Werte auf eine kleine Menge (sogar auf ganzzahlige Werte) reduzieren.
Was brauche ich, um in diesem Zusammenhang zu arbeiten?
Wie wir gesehen haben, ist künstliche Intelligenz „am Rand„ boomt und hat sich zu einer ganz besonderen Berufsnische entwickelt. Obwohl der Einstieg nur mit Kenntnissen im Bereich Hardware oder künstliche Intelligenz möglich ist, mussten diejenigen von uns, die daran arbeiten, auf ein viel multidisziplinäreres Profil umsteigen.
In meinem speziellen Fall, mit einer anfänglichen Spezialisierung auf den Bereich der künstlichen Intelligenz, war es für mich notwendig zu lernen, Hardware-Einschränkungen beim Entwurf und Training intelligenter Systeme zu berücksichtigen. Andere Kollegen, die sich auf Hardware konzentrieren, mussten lernen, die Funktionsweise intelligenter Systeme zu verstehen, um sie in die Geräte integrieren und validieren zu können.
Dies steht im Widerspruch zur Aufteilung in Vertiefungen der aktuellen Universitätsabschlüsse auf europäischer Ebene, bei denen die Spezialisierung auf eine bestimmte Branche im Vordergrund steht und die erforderliche Zusatzausbildung daher oft von den Studierenden selbst oder dem Unternehmen, das sie anbietet, getragen wird. Interne Ausbildungen oder Masterabschlüsse spezifischer oder allgemeiner Art wie z MUII der ESI.
Deshalb möchte ich diesen Artikel mit einer Überlegung beenden, die ich sowohl meinen Kollegen als auch meinen Studenten immer vorstelle, sowohl wegen einer möglichen Multidisziplinarität als auch wegen des ständigen Aufkommens neuer Technologien, und das ist es Eine der wichtigsten Fähigkeiten, die ein Informatik-Absolvent haben muss, ist die Fähigkeit, Neues zu verstehen und zu lernen..
Referenzen
[1] McCulloch, W. S. & Pitts, W. (1943). Eine logische Berechnung der der Nerventätigkeit immanenten Ideen. Das Bulletin der mathematischen Biophysik, 5, 115-133. [2] Goodfellow, I., Bengio, Y. & Courville, A. (2016). Tiefes Lernen. MIT-Presse.Lesen Sie auch Professor und Absolventen ESI-Gewinner NASA Awards 2022