WiMi entwickelte eine maschinelle Lernbasierte Echtzeit-Mensch-Drohnen-Interaktion mit DigiFlightGlove

(SeaPRwire) –   BERLIN, 14. November 2023 – WiMi Hologram Cloud Inc. (NASDAQ: WIMI) („WiMi“ oder das „Unternehmen“), ein führender globaler Anbieter von Hologram Augmented Reality („AR“)-Technologie, gab heute bekannt, dass es eine maschinelle Lernbasierte Echtzeit-Mensch-Drohnen-Interaktion mit DigiFlightGlove entwickelt hat. Die Technologie zielt darauf ab, die perfekte Kombination aus Drohnensteuerung und menschlichen Gesten zu verwirklichen. Durch die Integration flexibler Sensoren und Mikroprozessoren in einen komfortablen Handschuh ermöglicht die Technologie dem Benutzer eine präzise Kontrolle und Navigation der Drohne durch einfache Gesten und Bewegungen.

Während sich Drohnen im dreidimensionalen Raum immer schwierig zu bewegen waren, überwindet WiMis DigiFlightGlove die Grenzen traditioneller Steuerungsmethoden, indem es Gestenerkennung mit maschinellem Lernen kombiniert. Benutzer tragen einfach diesen Handschuh und können sofort und präzise mit der Drohne durch Gesten und Bewegungen interagieren.

Merkmale von WiMis DigiFlightGlove beinhalten eine mehrmodale Befehlsstruktur, maschinelles Lernen basierte Gestenerkennung, intelligente Aufgabenplanungsalgorithmen, Echtzeit-Leistung und hohe Genauigkeit. Über ein integriertes Sensorsystem auf dem Handschuh werden minimale Bewegungen der Hand des Benutzers erfasst und diese Daten dann über einen eingebauten Mikroprozessor an ein Hostsystem übertragen. Über die Benutzeroberfläche werden diese Signalsätze in glatte Datensätze umgewandelt, die von vier verschiedenen maschinellen Lernalgorithmen erkannt werden können.

Während des Entwicklungsprozesses wurden Tausende von Datenmustern gesammelt, um das tiefe neuronale Netzwerk zu trainieren und zu optimieren. Diese Proben decken eine breite Palette von Gesten und Bewegungen ab, um sicherzustellen, dass DigiFlightGlove die Absicht des Benutzers genau erkennt und interpretiert. Nach wiederholten Experimenten erreichte diese Technologie eine Genauigkeitsrate von 98,5%, was eine solide Grundlage für tragbare Smart Handschuhe zur Steuerung von Drohnen bietet.

WiMis DigiFlightGlove-Technologie basiert auf tragbaren Smart Handschuhen, die die Interaktion zwischen Menschen und Drohnen durch maschinelles Lernen und Sensorik ermöglichen:

Intelligenter Handschuh und Sensorintegration: Zunächst werden verschiedene Sensoren in den Handschuh integriert, darunter flexible Sensoren und Mikroprozessoren. Diese Sensoren erfassen Informationen über die Handbewegung und -haltung des Benutzers.

Datenerfassung und -verarbeitung: Wenn ein Benutzer die Handschuhe trägt, beginnen die Sensoren, Daten über die Handbewegung zu sammeln, einschließlich Informationen wie den Beugewinkel der Finger und die Ausrichtung der Handfläche. Diese Daten werden vom eingebauten Mikroprozessor verarbeitet und in digitale Signale umgewandelt.

Datenverarbeitung: Die Rohdaten, die gesammelt wurden, müssen vorverarbeitet werden, um Rauschen und Instabilität zu entfernen. Dies kann Schritte wie Filterung, Kalibrierung und Datenalignierung umfassen, um sicherzustellen, dass nachfolgende maschinelle Lernalgorithmen Handbewegungen genau interpretieren können.

Merkmalsextraktion und Datenwandlung: Aus den vorverarbeiteten Daten werden Merkmale extrahiert, die Fingergelenkwinkel, Handhaltung, Bewegungsgeschwindigkeit usw. umfassen können. Die extrahierten Merkmale werden in ein Format umgewandelt, das das maschinelle Lernmodell verstehen kann, in der Regel eine Menge numerischer Vektoren.

Maschinelles Lernen Modelltraining: Es muss mit einem maschinellen Lernalgorithmus für die Gestenerkennung trainiert werden, um verschiedene Gesten und Bewegungen zu erkennen. Dem maschinellen Lernalgorithmus wird eine große Anzahl von Probenmustern bereitgestellt, die die Kennzeichnungsinformationen für verschiedene Gesten und Aktionen enthalten.

Modelltestung und Optimierung: Nach dem Training wird das Modell getestet, um seine Genauigkeit bei der Erkennung von Gesten und Aktionen zu bewerten. Auf der Grundlage der Testergebnisse erfolgen Optimierung und Anpassung des Modells, um die Genauigkeit zu verbessern.

Echtzeit-Erkennung und Befehlserzeugung: Bei tatsächlicher Nutzung werden die vom intelligenten Handschuh erfassten Daten bei Gesten und Bewegungen des Benutzers in Echtzeit von einem trainierten maschinellen Lernalgorithmus erkannt. Das Modell übersetzt die Erkennungsergebnisse in entsprechende Befehle wie Aufsteigen, Absenken, Lenken und andere UAV-Steuerbefehle.

Aufgabenplanung und Drohnensteuerung: Die erkannten Gestenbefehle werden über einen Aufgabenplanungsalgorithmus in Steuerbefehle für die Drohne übersetzt. Zum Beispiel kann eine bestimmte Geste das Linksabbiegen der Drohne und eine andere Geste den Aufwärtsflug anzeigen. Der Aufgabenplanungsalgorithmus kann basierend auf der Gestenfolge und den Echtzeit-Anforderungen die entsprechenden Steuerbefehle generieren, um sicherzustellen, dass sich die Drohne so bewegt, wie es der Benutzer beabsichtigt hat.

Benutzerschnittstelle und Interaktion: Um eine intuitive Interaktion mit dem System zu ermöglichen, gibt es eine grafische Benutzeroberfläche (GUI), die die erkannten Gesten und die entsprechenden UAV-Steuerbefehle anzeigt. Die Benutzer können ihre Gesten auf der Oberfläche sehen und auch die Reaktion der UAV.

WiMis DigiFlightGlove-Technologie bietet im Bereich der Mensch-Drohnen-Interaktion beispiellose Flexibilität. Mit dem intelligenten Handschuh können Benutzer die Bewegungen der Drohne einfach durch Gesten für präzisen Flug und Navigation steuern sowie mehr innovative Möglichkeiten für Drohnenanwendungen erschließen.

WiMis DigiFlightGlove-Technologie ist eine Erforschung der wachsenden Nachfrage nach Drohnenanwendungen und der Prämisse von tragbarer Technologie und maschinellem Lernen. Durch die Verschmelzung von Wearables, maschinellem Lernen und Drohnentechnologie zur Realisierung eines neuen Interaktionsparadigmas wird erwartet, dass WiMis DigiFlightGlove-Technologie in einer Vielzahl von Branchen wie Luftfahrt, Rettung, Unterhaltung, Logistik, Landwirtschaft, Bauwesen und mehr Anwendung findet. Mit der Ausweitung der Drohnenanwendungen und der Reifung der tragbaren Technologie wird die Marktnachfrage nach dieser Technologie allmählich steigen. Investoren, Unternehmer und große Unternehmen werden wahrscheinlich nach Kooperations- und Investitionsmöglichkeiten in diesem Bereich suchen, um die Entwicklung und Kommerzialisierung der Technologie voranzutreiben. Diese Technologie erschließt beispiellose Möglichkeiten für den Einsatz von Drohnen in zivilen Anwendungen. Die Drohnensteuerung ist intuitiver und natürlicher geworden, so dass auch normale Menschen komplexe Flugaufgaben bewältigen können.

Über WIMI Hologram Cloud

WIMI Hologram Cloud, Inc. (NASDAQ: WIMI) ist ein umfassender technischer Lösungsanbieter für holographische Cloud, der sich auf professionelle Bereiche wie holographische AR-Automobil-HUD-Software, 3D-holographische Puls-LiDAR, kopfmontierte Lichtfeld-holographische Ausrüstung, holographische Halbleiter, holographische Cloud-Software, holographische Automobilnavigation und andere konzentriert. Zu ihren Dienstleistungen und holographischen AR-Technologien gehören holographische AR-Automobilanwendung, 3D-holographische Puls-LiDAR-Technologie, holographische Vision-Halbleitertechnologie, Entwicklung holographischer Software, holographische AR-Werbetechnologie, holographische AR-Unterhaltungstechnologie, holographische ARSDK-Zahlung, interaktive holographische Kommunikation und andere holographische AR-Technologien.

Safe Harbor-Erklärungen

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire bietet Pressemitteilungsvertriebsdienste für globale Kunden in verschiedenen Sprachen an.(Hong Kong: AsiaExcite, TIHongKong; Singapore: SingdaoTimes, SingaporeEra, AsiaEase; Thailand: THNewson, THNewswire; Indonesia: IDNewsZone, LiveBerita; Philippines: PHTune, PHHit, PHBizNews; Malaysia: DataDurian, PressMalaysia; Vietnam: VNWindow, PressVN; Arab: DubaiLite, HunaTimes; Taiwan: EAStory, TaiwanPR; Germany: NachMedia, dePresseNow) 

Diese Pressemitteilung enthält „zukunftsgerichtete Aussagen“ im Sinne des Private Securities Litigation Reform Act von 1995. Solche zukunftsgerichteten Aussagen können an Begriffen wie „wird“, „erwartet“, „antizipiert“, „zukünftig“, „beabsichtigt“, „plant“, „glaubt“, „schätzt“ und ähnlichen Aussagen erkannt werden. Aussagen, die keine historischen Fakten sind, einschließlich Aussagen über die Überzeugungen und Erwartungen des Unternehmens, sind zukunftsgerichtete Aussagen. Unter anderem enthalten auch der Geschäftsausblick und Zitate aus den Äußerungen des Managements in dieser Pressemitteilung und die strategischen und operativen Pläne des Unternehmens zukunftsgerichtete Aussagen. Das Unternehmen kann auch mündliche oder schriftliche zukunftsgerichtete Aussagen in seinen Berichten an die US-Börsenaufsichtsbehörde SEC auf Formblättern 20-F und 6-K, in seinem Jahresbericht an die Aktionäre, in Pressemitteilungen und anderen schriftlichen Materialien sowie in mündlichen Erklärungen von Führungskräften gegenüber Dritten machen. Zukunftsgerichtete Aussagen beinhalten inhärente Risiken und Ungewissheiten. Eine Reihe von Faktoren könnte dazu führen, dass die tatsächlichen Ergebnisse wesentlich von den in zukunftsgerichteten Aussagen enthaltenen abweichen, darunter die folgenden: die Ziele und Strategien des Unternehmens, die künftige Geschäftsentwicklung, die Finanzlage und die Betriebsergebnisse des Unternehmens, die voraussichtliche Entwicklung der AR-Hologrammbranche, die Erwartungen des Unternehmens hinsichtlich der Nachfrage nach und des Marktzuspruchs für seine Produkte und Dienstleistungen sowie andere Risiken, die im Jahresbericht des Unternehmens auf Formular 20-F und im aktuellen Bericht auf Formular 6-K sowie in anderen SEC-Dokumenten enthalten sind.