Taekwondo-Bewegungsbilderkennungsmodell basierend auf einem hybriden neuronalen Netzwerkalgorithmus für tragbare Sensoren des Internets der Dinge
HeimHeim > Blog > Taekwondo-Bewegungsbilderkennungsmodell basierend auf einem hybriden neuronalen Netzwerkalgorithmus für tragbare Sensoren des Internets der Dinge

Taekwondo-Bewegungsbilderkennungsmodell basierend auf einem hybriden neuronalen Netzwerkalgorithmus für tragbare Sensoren des Internets der Dinge

Nov 10, 2023

Wissenschaftliche Berichte Band 13, Artikelnummer: 13097 (2023) Diesen Artikel zitieren

287 Zugriffe

3 Altmetrisch

Details zu den Metriken

Das herkömmliche Taekwondo-Bewegungsbilderkennungsmodell mit tragbaren IoT-Sensoren verwendet hauptsächlich den Ankerrahmen mit festem Anteil des Ganzkörperziels von Anchor, um Erkennungsmerkmale zu extrahieren, was anfällig für dynamisches Rauschen ist, was zu einer niedrigen Verschiebungserkennungsrate von Bewegungsbildern führt. Daher muss ein neues tragbares IoT-Sensor-Taekwondo-Bewegungsbilderkennungsmodell entwickelt werden, das auf einem hybriden neuronalen Netzwerkalgorithmus basiert. Das heißt, die Merkmale des tragbaren Taekwondo-Bewegungsbildsensors werden extrahiert und der hybride neuronale Netzwerkalgorithmus wird verwendet, um das Optimierungsmodell für die Taekwondo-Bewegungsbilderkennung des tragbaren Sensors im Internet der Dinge zu generieren, um eine effektive Erkennung von Taekwondo-Bewegungsbildern zu erreichen . Die experimentellen Ergebnisse zeigen, dass der entworfene tragbare Sensor des Internets der Dinge, der auf dem hybriden neuronalen Netzwerkalgorithmus basiert, eine hohe Erkennungsrate der Bewegungsbildverschiebung des Taekwondo-Bewegungsbilderkennungsmodells aufweist, was beweist, dass das entworfene Taekwondo-Bewegungsbilderkennungsmodell über eine hohe Erkennungsrate verfügt guter Wiedererkennungseffekt, Zuverlässigkeit und gewisser Anwendungswert und hat gewisse Beiträge zur Optimierung der Taekwondo-Bewegung geleistet.

Taekwondo ist eine offizielle olympische Disziplin1, die sich aus Hualangdao in Nordkorea entwickelte und sich später zu einer lange Zeit in Asien beliebten Kampfkunst entwickelte. Beim Taekwondo nutzen Sportler häufig beide Hände und Füße, um effektiv zu kämpfen. Das frühe Taekwondo und die Trainer beurteilten die Bewegungen der Athleten hauptsächlich mit dem bloßen Auge2, das leicht durch subjektive Faktoren beeinflusst wurde, was zu ungenauen endgültigen Bewertungsergebnissen führte. Im Rahmen der Informatisierung wurde auch die Auswertung von Taekwondo-Wettkämpfen schrittweise verbessert und zur Auswertung werden fortschrittliche Verarbeitungswerkzeuge wie Computer eingesetzt3. Aufgrund des Einflusses komplexer Aktionsmerkmale von Taekwondo ist die Erkennung bewegter Bilder jedoch schwierig und muss durch ein effektives Erkennungsmodell für bewegte Bilder vervollständigt werden.

Die Bewegtbilderkennung ist eine fortschrittliche Computerwahrnehmungstechnologie, die den Interaktionszustand zwischen Mensch und Computer kombinieren kann, um die Erkennung abzuschließen und so ein effektives Bewegtbilderkennungsmodell zu erzeugen4. Um den Erkennungseffekt bewegter Bilder zu verbessern, ist es notwendig, Daten zur Wahrnehmung des menschlichen Verhaltens zu erfassen und angemessene Erkennungsparameter festzulegen5. Derzeit untersuchen viele Wissenschaftler im In- und Ausland das Problem der Bewegungserkennungswahrnehmung und stellen verschiedene Annahmen zur Bewegungsbildwahrnehmungserkennung vor. Aufgrund des Mangels an einschlägiger Erfahrung6,7 ist der Erkennungseffekt der meisten vorhandenen Bewegungsbilderkennungsmodelle jedoch allgemein.

Zu Beginn des Prozesses der menschlichen Bewegungsbilderkennung wurde hauptsächlich eine Spezialkamera verwendet. Diese Kamera kann effektive Bewegtbildsequenzen aufnehmen, um menschliche Bewegungen zu erkennen8. Heutzutage wird die Kamera auch als Wahrnehmungskamera bezeichnet. Mit dem Fortschritt der Computer-Vision-Technologie werden immer mehr Wahrnehmungskameras verwendet, um die Bewegungsbilddaten9,10 des Menschen aus allen Winkeln zu erhalten und die Gesamtzahl der Bewegungsbilder zu erhöhen Die Anzahl der von Kameras aufgenommenen Sequenzen nimmt zu, sodass der Erkennungseffekt relativ verbessert wird. Untersuchungen zeigen jedoch, dass die Erkennungseinschränkungen der oben genannten Erkennungsmethoden groß sind und sie anfällig für Licht, Wahrnehmungskameraposition, Verdeckung und andere Faktoren sind, was zu einer hohen eindeutigen Erkennungsabweichung führt11. Darüber hinaus ist ihr Erkennungsschutz relativ aufdringlich und sie sind für den Einsatz in einigen Szenen nicht geeignet. Um die oben genannten Probleme zu lösen, wird in diesem Artikel ein neues Taekwondo-Bewegungsbilderkennungsmodell mit tragbarem Sensor erstellt, das auf dem hybriden neuronalen Netzwerkalgorithmus basiert.

Bei tragbaren Sensoren handelt es sich um Sensorgeräte, die am Körper getragen werden können, um Daten zu sammeln. Zu den verschiedenen Arten von tragbaren Sensoren, die zur Merkmalsextraktion verwendet werden können, gehören:

Beschleunigungsmesser – Tragbare Beschleunigungsmesser messen typischerweise die Beschleunigung und Richtung der Körperbewegung, die zur Messung von Bewegungsmerkmalen wie Schrittzahl, Gehgeschwindigkeit und Aktivitätsintensität verwendet werden können.

Gyroskope – Gyroskope können Rotationsbewegungen des Körpers messen, wie z. B. Beugen, Rollen und Drehen, und können zur Erkennung von Bewegungen oder Haltungsänderungen verwendet werden.

Herzfrequenzsensoren – Herzfrequenzsensoren können Veränderungen der Herzfrequenz und den Zusammenhang zwischen Herzfrequenz und anderen Übungen oder Aktivitäten messen.

Temperatursensoren – Temperatursensoren können Änderungen der Hautoberflächentemperatur messen und so Änderungen der Körpertemperatur und anderer physiologischer Merkmale erkennen.

EMG-Sensoren – Elektromyographie-Sensoren (EMG) können die elektrischen Signale messen, die bei der Muskelkontraktion erzeugt werden, was zur Erkennung von Muskelermüdung und Aktivitätsniveau verwendet werden kann.

Körperdrucksensoren – Körperdrucksensoren können die Druckverteilung verschiedener Körperteile messen und so Veränderungen der Körperposition und -haltung erkennen.

Optische Sensoren – Optische Sensoren können die Intensität des reflektierten Lichts auf der Hautoberfläche messen, was zur Erkennung physiologischer Merkmale wie Hautfarbe, Durchblutung und Sauerstoffversorgung verwendet werden kann.

Mit den oben genannten Sensoren können Bewegungs-, Physiologie- und Umgebungsdaten erfasst und Merkmale extrahiert werden. Durch die Verarbeitung und Analyse dieser Daten können verschiedene Merkmale wie menschliche Körperhaltung, Bewegungsverhalten und physiologische Zustände extrahiert und erkannt werden. In diesem Artikel werden tragbare Sensoren verwendet, um Taekwondo-Bewegungsbildfunktionen zu extrahieren.

Vor der Bewegtbilderkennung ist eine Bildvorverarbeitung erforderlich, die durch viele Faktoren bei der Bewegtbildübertragung gestört werden kann, was zu Erkennungsrauschen führt12. Daher ist vor dem Extrahieren von Bewegtbildmerkmalen eine Bildvorverarbeitung erforderlich, um das Rauschen zu reduzieren. Das heißt, die Durchschnittsberechnungsmethode zu verwenden, um einen Verarbeitungsbereich zu unterteilen13, effektive Änderungspunkte zu überprüfen, eine Rauschentfernungsverarbeitung durchzuführen, das Problem der Bildunschärfe zu lösen, Bildrauschen zu reduzieren und die Bildklarheit zu erhöhen14,15. Darüber hinaus kann der Computer auch verwendet werden, um die Bewegungsschritte im bewegten Bild zu zerlegen, die Bewegungsdetails zu unterteilen, um eine Merkmalsdifferenzierung16 zu erreichen, die umfassenden Merkmale des Bildes zu extrahieren und die Bildmerkmalsdifferenzierung \(y_{ij}\) durchzuführen, wie gezeigt in (1) unten.

In Formel (1) repräsentiert \(W_{st}\), \(x_{i - s + 1}\) das Koordinatenelement des bewegten Bildes, S und T repräsentieren jeweils die Größe des Erkennungsfilters. Da nach der Merkmalsextraktion von Bewegtbildern die Dimension des Merkmalsbilds nicht bestimmt werden kann, ist es notwendig, verbesserte neuronale Netzwerkparameter auszuwählen, eine Dimensionsreduktionsverarbeitung durchzuführen, Abtastschichten zu verbinden17, die Komplexität der Dimensionsreduktionsberechnung zu reduzieren und den Dimensionsreduktionsbereich zu verkürzen und verbessern Sie die Berechnungsgenauigkeit. Zu diesem Zeitpunkt können wir mathematische Methoden verwenden, um das Taekwondo-Bewegtbild zu beschreiben18, und Formel (2) verwenden, um den entsprechenden Grauwert der Pixel \(V_{gray}\) zu berechnen.

In Formel (2) repräsentieren \(V_{red}\), \(V_{green}\), \(V_{blue}\) unterschiedliche Farbhelligkeitswerte bewegter Bilder, \(sa,sb,sc\) ) repräsentieren sie den Gesamtinhalt der Pixel im bewegten Bild19. Zu diesem Zeitpunkt kann der Grauwert der Pixel in der Bewegtbilderkennung verwendet werden (f(x_{m}, y_{m})\), um die Wirksamkeit extrahierter Merkmale zu verbessern20, es ist notwendig, das Original zu berechnen gewichtete durchschnittliche Details des bewegten Bildes \(g(x,y)\), wie in (3) unten gezeigt.

In Formel (3) stellt \(w(i,j)\) das gefilterte Bewegtbild dar, M stellt die Anzahl der Pixel in der Nachbarschaft dar und i und j stellen den Änderungsschwellenwert21 des Bewegtbilds dar. Nachdem die obigen Schritte abgeschlossen sind, können die umfassenden Merkmale des Bildes extrahiert werden \(f(X)\), wie in (4) unten gezeigt.

In Formel (4) stellt \(\alpha\) den durch die Identifizierung festgelegten Iterationsschwellenwert dar, \(g(x)\) stellt den Merkmalserkennungsindex des bewegten Bildes dar. Durch die Verwendung der oben genannten Schritte kann die Erkennungsgenauigkeit des Bewegtbilds verbessert und der Einfluss externer Störungen auf das endgültige Erkennungsergebnis verringert werden.

Um das Problem zu lösen, dass der Ankerrahmen des Ganzkörperziels mit festem Anteil des Ankers beim Extrahieren von Erkennungsmerkmalen durch dynamisches Rauschen beeinflusst wird, was zu einer geringen Erkennungsrate der Bewegungsbildverschiebung führt22,23, generiert dieser Artikel ein Optimierungsmodell für Taekwondo-Bewegungen Bilderkennung eines tragbaren Sensors für das Internet der Dinge basierend auf einem hybriden neuronalen Netzwerkalgorithmus. Die in diesem Artikel entwickelte Methode wählt BP- und LSTM-Hybrid-Neuronale Netze für die Bewegungsbilderkennung und -beurteilung aus24, wie in Abb. 1 dargestellt.

BP- und LSTM-Hybrid-Neuronale Netzwerkstruktur.

Zu diesem Zeitpunkt muss der Standardmittelwert jedes von IMU gemessenen Verbindungspunkts berechnet werden \(\sigma\), wie in (5) unten gezeigt.

In Formel (5) stellt \(b\) die Anzahl der Verbindungspunkte dar, \(a_{1}\) stellt den Beschleunigungswert des Verbindungspunkts dar, \(a\) stellt den durchschnittlichen Beschleunigungswert dar, \(n\ ), die die Anzahl der Sequenzbilder darstellt, kombiniert mit dem oben genannten Standardmittelwert25, können wir die Bewegungsstillstandskategorie des bewegten Bildes beurteilen. Zu diesem Zeitpunkt ist der generierte Bewegtbilderkennungsprozess in Abb. 2 dargestellt.

Verfahren zur Bewegtbilderkennung.

Aus Abb. 2 ist ersichtlich, dass Trainingsmuster in Kombination mit dem oben beschriebenen Bewegtbilderkennungsprozess eingegeben und der Eingabewert von Neuronen der verborgenen Schicht26 berechnet werden können. Derzeit basiert das optimale Modell für die Taekwondo-Bewegtbilderkennung tragbarer Sensoren des Internets der Dinge auf dem hybriden neuronalen Netzwerkalgorithmus \(E(w)\), wie in (6) unten gezeigt27.

In Formel (6) repräsentiert \(y_{n}\) das Gewicht der verborgenen Neuronenverbindung und \(y\) das Gewicht der Eingabeneuronenverbindung28. Mithilfe des oben genannten tragbaren IoT-Sensors kann das Optimierungsmodell für die Taekwondo-Bewegungsbilderkennung effektiv das Bewegungserkennungsgewicht ermitteln, effektive Bildsequenzerkennungsergebnisse ausgeben29,30 und die Zuverlässigkeit der Bewegungsbilderkennung verbessern.

Um den Erkennungseffekt des entwickelten Taekwondo-Bewegungsbilderkennungsmodells mit tragbarem Sensor zu überprüfen, das auf dem hybriden neuronalen Netzwerkalgorithmus basiert, wurde in diesem Artikel eine experimentelle Plattform erstellt, diese mit dem herkömmlichen Taekwondo-Bewegungsbilderkennungsmodell mit tragbarem Sensor verglichen und Experimente durchgeführt , wie folgt.

In Kombination mit den experimentellen Anforderungen wird in diesem Artikel die virtuelle Simulationsplattform Solid Works 3D als experimentelle Plattform ausgewählt. Die experimentelle Plattform ist mit gängiger CAD-Analysesoftware ausgestattet und bietet eine gute Gesamtleistung. Im Prozess der Taekwondo-Bewegung sind die Bewegungsmodi und Grundbewegungswinkel der menschlichen Gelenke für verschiedene Bewegungen unterschiedlich. Daher kann der Bewegungstrend menschlicher Gelenke entsprechend dem Bewegungstransformationstrend menschlicher Gelenke vorhergesagt werden, um eine koordinierte Bewegungssteuerung zu erreichen. Daher führte dieses Experiment eine Bewegungsschätzung in Kombination mit dem MMG-Signal menschlicher Bewegungsbilder durch und generierte den grundlegenden experimentellen Prozess, wie in Abb. 3 dargestellt.

Grundlegender Ablauf des Experiments.

Aus Abb. 3 ist ersichtlich, dass während des Experiments das MMG-Signal des Bildes kontinuierlich erfasst und die Aktionssimulation durchgeführt werden kann. Mit den relevanten Bewegungswinkeln als Referenz können effektive Steueralgorithmen zur Korrektur verwendet werden, um Taekwondo-Bewegungsbilder zu sammeln, die den experimentellen Anforderungen entsprechen, wie in Abb. 4 dargestellt.

Taekwondo-Filmbilder.

Zu diesem Zeitpunkt sind die Diskretisierungsparameter des Gelenkwinkels unter verschiedenen Bewegungsmodi in Tabelle 1 aufgeführt.

Aus Tabelle 1 ist ersichtlich, dass Bewegtbilderkennungsdaten in Kombination mit den oben genannten gemeinsamen Diskretisierungsparametern ausgewählt werden können. Um die Zuverlässigkeit der Erkennung sicherzustellen, müssen Bilddaten vorverarbeitet werden, dh die PC-Zuordnungsplattform auswählen, die Hauptfrequenz der Bewegtbildverarbeitung auf 2,5 GHz einstellen und dann den entsprechenden internen Speicher auf 5 GB belaufen. Geben Sie die oben erhaltenen Diskretisierungsparameter des Gelenkwinkels ein und berechnen Sie die diskrete Zustandsfrequenz verschiedener Signalsegmente. Nachdem die oben genannten Schritte abgeschlossen sind, kann das Basissignaldiagramm des Gelenkwinkels erstellt werden, um die experimentellen Daten zu klassifizieren. Zu diesem Zeitpunkt sind die Segmentsteigung und die Anzahl der Zuordnungsregeln jedes Signalsegments in Tabelle 2 dargestellt.

Aus Tabelle 1 ist ersichtlich, dass die experimentelle Hardware angeschlossen werden kann, nachdem die oben genannten experimentellen Parameter festgelegt wurden. In diesem Artikel wird der tragbare RFID-Sensor für das Internet der Dinge als experimenteller Sensor ausgewählt. Zu diesem Zeitpunkt ist das schematische Diagramm der experimentellen Hardware-Geräteverbindung in Abb. 5 dargestellt.

Anschlussdiagramm des experimentellen Hardwaregeräts.

Aus Abb. 5 ist ersichtlich, dass der Kern der oben genannten experimentellen Hardware das RFID-Lesegerät Impinj R2000 ist, das mit einer Stromversorgung von 9000 mA und mehreren Identifikationsantennen konfiguriert ist. Die Sendeleistung der Identifikationsantenne beträgt 0–30 dBm, die Genauigkeit ist einstellbar. Während des Experiments muss sichergestellt werden, dass das Lese- und Schreibfrequenzband des Core-Reader-Writer innerhalb des angegebenen Bereichs liegt. Um die Wirksamkeit der Erkennungsergebnisse zu verbessern, wählt dieses Experiment US FCC 47 CFG als Unterstützung und legt den Bilderkennungsstandard ETSI EN 302.208 fest. Während des Experiments muss stets sichergestellt werden, dass sich das Lesegerät im Inventar-Arbeitsmodus befindet, und versucht werden, den Lese-/Schreibbereich des Lesegeräts zu verbessern. Nachdem die oben genannten Hardwaregeräte angeschlossen wurden, können die experimentellen Indikatoren ausgewählt und die Erkennungsratenformel nach der Verschiebung des bewegten Bildes entworfen werden (D), wie in (7) unten gezeigt.

In Formel (7) stellt \(W\) die Position des Basisbildes nach der Verschiebung dar, \(W_{0}\) stellt die Position des identifizierten Bildes vor der Verschiebung dar, und \(R\) stellt die voreingestellte Bildverschiebung dar, je höher Je höher die Erkennungsrate nach der Bewegtbildverschiebung, desto besser ist der Erkennungseffekt des Bewegtbilderkennungsmodells. Im Gegenteil: Je niedriger die Erkennungsrate nach der Bewegtbildverschiebung ist, desto schlechter ist der Erkennungseffekt des Bewegtbilderkennungsmodells. Vor dem Experimentiervorgang muss außerdem der MEMS-Trägheitssensor angeschlossen werden, um sicherzustellen, dass er den Anforderungen der tatsächlichen Bewegtbilderkennung entspricht. Die Spezifikationen und Parameter des Sensors sind in Tabelle 3 aufgeführt.

Tabelle 3 zeigt, dass die Parameter der oben genannten Inertialsensoren den experimentellen Anforderungen entsprechen. Zusätzlich zu den oben genannten Vorbereitungen ist es auch erforderlich, die relevanten Parameter des hybriden neuronalen Netzwerks festzulegen und den experimentellen Datensatz vorzubereiten.

Das hybride neuronale Netzwerk ist ein Modell, das Faltungs-Neuronale Netzwerke und vollständig verbundene neuronale Netzwerke kombiniert. Im Prozess der Bilderkennung werden üblicherweise folgende Parameter für das hybride neuronale Netz eingestellt:

Größe der Eingabeebene bezieht sich auf die Größe des Eingabebildes, die normalerweise drei Dimensionen hat: Länge, Breite und Kanalnummer, z. B. 224 × 224 × 3.

Zu den Parametern der Faltungsschicht gehören die Angabe der Größe des Faltungskerns, der Anzahl der Faltungskerne, der Schrittgröße und des Füllmodus. Diese Parameter bestimmen die Größe der Ausgabe der Faltungsschicht und die Anzahl der Feature-Maps.

Zu den Parametern der Pooling-Schicht gehört die Angabe der Größe des Pooling-Kernels und der Schrittgröße. Diese Parameter bestimmen die Größe der Ausgabe des Pooling-Layers und die Anzahl der Feature-Maps.

Zu den Parametern der vollständig verbundenen Schicht gehören die Angabe der Anzahl der Neuronen in der vollständig verbundenen Schicht und die Aktivierungsfunktion.

Im Erkennungsprozess des hybriden neuronalen Netzwerks besteht der erste Schritt darin, ein Bild einzugeben, das dann einer Reihe von Verarbeitungen durch Faltungsschichten und Pooling-Schichten unterzogen wird. Die Feature-Maps werden kontinuierlich verkleinert und gleichzeitig verschiedene Features des Bildes extrahiert. Anschließend werden mehrere Feature-Maps zu einem einzigen Vektor zusammengeführt und die Klassifizierung erfolgt über die vollständig verbundene Ebene, was letztendlich zum Klassifizierungsergebnis des Bildes führt.

Der in diesem Artikel verwendete Taekwondo-Bewegungsbilderkennungsdatensatz lautet wie folgt:

KTH-TIPS2-B Dieser Datensatz enthält 384 Bilder von 6 verschiedenen Taekwondo-Bewegungen (Frontkick, Backkick, Turnkick, Sidekick, High Sidekick und Low Sidekick). Jede Bewegung wurde von zwei verschiedenen Schauspielern ausgeführt, und jeder Schauspieler führte sie 16 Mal aus.

KyungHee TaeKwonDo-Datensatz Dieser Datensatz enthält 1010 Bilder von 10 verschiedenen Taekwondo-Bewegungen (Handstoß, Handballenschlag, Frontkick, Kniekick, Rückwärtskick, Rückkick, Seitenkick, einbeiniger Sprungkick, aufeinanderfolgender Kick und Bottomkick). Jede Bewegung wurde von verschiedenen Schauspielern ausgeführt.

NTU RGB + D-Datensatz Dieser Datensatz enthält 56 verschiedene Aktionen, darunter 11 verschiedene Taekwondo-Bewegungen. Jede Bewegung wurde von 40 verschiedenen Schauspielern ausgeführt und mit RGB- und Tiefensensoren erfasst.

Nachdem alle Versuchsvorbereitungsgeräte angeschlossen wurden, können nachfolgende Bewegtbilderkennungsexperimente durchgeführt werden.

In Kombination mit den oben genannten experimentellen Vorbereitungen können wir nachfolgende Experimente mit dem tragbaren Sensor des Internets der Dinge für die Taekwondo-Bewegungsbilderkennung durchführen. Das heißt, in der gebauten experimentellen Plattform werden das Taekwondo-Bewegungsbilderkennungsmodell mit tragbarem Sensor, das auf dem in diesem Artikel entwickelten hybriden neuronalen Netzwerkalgorithmus basiert, und das herkömmliche Taekwondo-Bewegungsbilderkennungsmodell mit tragbarem Sensor jeweils für die Bewegungsbilderkennung und die öffentliche Formel verwendet (1) wird verwendet, um die Bewegungsbildverschiebungserkennungsrate der beiden Methoden in verschiedenen Bewegungsmodi aufzuzeichnen. Die experimentellen Ergebnisse sind in Tabelle 4 dargestellt.

Tabelle 4 zeigt, dass die Verschiebungserkennungsrate des Bewegungsbildes des tragbaren Taekwondo-Bewegungsbilderkennungsmodells, das in diesem Artikel auf der Grundlage des hybriden neuronalen Netzwerkalgorithmus entwickelt wurde, in verschiedenen Bewegungsmodi hoch ist, während die Verschiebungserkennungsrate des Bewegungsbildes des Das herkömmliche Taekwondo-Bewegungsbilderkennungsmodell mit tragbarem Sensor ist relativ niedrig. Es beweist, dass das in diesem Artikel entwickelte Taekwondo-Bewegungsbilderkennungsmodell mit tragbarem Sensor eine gute Erkennungsleistung, Wirksamkeit und einen bestimmten Anwendungswert aufweist.

Durch den Vergleich von Kontrast, Klarheit und Erkennungszeit der entrauschten Bilder mit anderen Algorithmen wurden die Vorteile des vorgeschlagenen Algorithmus bei der Identifizierung von Bildmerkmalen verifiziert.

Unter Kontrast versteht man die Messung der unterschiedlichen Helligkeitsstufen zwischen den hellsten weißen und dunkelsten schwarzen Bereichen in einem Bild. Je größer der Differenzbereich, desto größer der Kontrast und umgekehrt. Für diesen Wert gibt es keine Standarddefinition, daher wird er in dieser Studie basierend auf dem menschlichen Komfortniveau auf 35 festgelegt.

Klarheit ist der durchschnittliche Farbverlauf des Bildes, der die Fähigkeit des Bildes, kleine Kontraste auszudrücken, sensibel widerspiegeln kann. Die Informationsentropie stellt die Größe der im Bild enthaltenen Informationen dar. Mit zunehmendem Informationsentropiewert nimmt auch der im Merkmalsbild enthaltene Informationswert zu, was zu einer höheren Klarheit führt.

Die Erkennungszeit spiegelt die Erkennungseffizienz jedes Modells wider und dieser Wert wird vom Computer aufgezeichnet.

Die Ergebnisse des Vergleichs der Verstärkungseffekte zwischen der in diesem Artikel vorgeschlagenen Methode und herkömmlichen Methoden sind in Tabelle 5 aufgeführt.

Aus Tabelle 5 lässt sich schließen, dass je größer der Durchschnittswert bei der Bilderkennung ist, desto besser ist die Fähigkeit, die Bildhelligkeit zu verbessern, und die Genauigkeit der vorgeschlagenen Methode beträgt 95,39 %, die höchste unter den verglichenen Algorithmen. Dies weist darauf hin, dass der vorgeschlagene Algorithmus die Bildhelligkeit besser verbessern kann und so höhere Kontrast- und Informationsentropiewerte gewährleistet. Dies zeigt, dass der Bilderkennungseffekt zwar gut ist, aber auch mehr Informationen enthält. In Bezug auf die Laufzeit des Algorithmus weist der vorgeschlagene Algorithmus auch die kürzeste Zeit auf. Die obigen experimentellen Ergebnisse beweisen, dass der vorgeschlagene Algorithmus offensichtliche Vorteile bei der Identifizierung von Bildmerkmalen bietet.

Taekwondo ist eine weit verbreitete Sportart, die in verschiedenen Ländern über viele Trainer verfügt. Das Bewegungsmuster von Taekwondo ist komplex und schwer effektiv zu identifizieren, daher muss es durch die Sensorfotografie umfassend ausgewertet werden. In den letzten Jahren hat sich die Computer-Vision-Technologie in China immer schneller entwickelt, und einige Forscher haben sie auf die Erkennung von Taekwondo-Filmbildern angewendet. Das herkömmliche Erkennungsmodell von Taekwondo-Bewegungsbildern hat einen schlechten Erkennungseffekt und erfüllt nicht die aktuellen Erkennungsanforderungen. Daher entwirft dieser Artikel ein neues tragbares Sensor-Taekwondo-Bewegungsbilderkennungsmodell, das auf dem hybriden neuronalen Netzwerkalgorithmus basiert. Die experimentellen Ergebnisse zeigen, dass das Taekwondo-Bewegungsbilderkennungsmodell mit tragbarem Sensor eine gute Erkennungsleistung, Zuverlässigkeit und einen bestimmten Anwendungswert aufweist und bestimmte Beiträge zur Optimierung der Taekwondo-Sportfähigkeiten geleistet hat.

Derzeit haben hybride neuronale Netzwerkalgorithmen bestimmte Ergebnisse erzielt, es gibt jedoch noch Raum für Verbesserungen. Zukünftige Forschungen werden viele hochmoderne Deep-Learning-Modelle wie Alexnet, Googlenet und Xception nutzen, um Bilder zu klassifizieren und die Algorithmusleistung zu verbessern.

Die während der aktuellen Studie verwendeten und/oder analysierten Datensätze sind auf begründete Anfrage beim entsprechenden Autor erhältlich.

Hung, MS & Chiu, YT Anwendung der Bilderkennung zur Erkennung von Pflanzenviren. Mikrosk. Mikroanal. 27(S1), 2274–2276 (2021).

Artikel Google Scholar

Toldinas, J. et al. Ein neuartiger Ansatz zur Erkennung von Netzwerkeinbrüchen mittels mehrstufiger Deep-Learning-Bilderkennung. Elektronik 10(15), 1854 (2021).

Artikel Google Scholar

Soriano, RP et al. Neue Bilderkennungstechnik zum intuitiven Verständnis der dynamischen Reaktion von Hochhäusern im Unterricht. Nachhaltigkeit 13(7), 3695 (2021).

Artikel Google Scholar

Yong, KC et al. Doppelseitige Infrarotanzeige mit einem undurchsichtigen Substrat basierend auf einem Infrarot-Bilderkennungsmechanismus. AIP Adv. 11(2), 025136 (2021).

Artikel ADS Google Scholar

Wang, C. et al. Ein feldprogrammierbares Gate-Array-System zur Sonarbilderkennung basierend auf einem Faltungs-Neuronalen Netzwerk: Proceedings of the Institution of Mechanical Engineers, Teil IJ Syst. Kontroll-Ing. 235(10), 1808–1818 (2021).

Google Scholar

Lin, W., Adetomi, A. & Arslan, T. Ultrakleine Edge-KI-Beschleuniger mit geringem Stromverbrauch für die Bilderkennung mit Faltungs-Neuronalen Netzen: Analyse und zukünftige Richtungen. Elektronik 10(17), 2048 (2021).

Artikel Google Scholar

Deng, X. et al. Interpretierbares multimodales Bildregistrierungsnetzwerk basierend auf entwirrter Faltungssparse-Codierung. IEEE Trans. Bildprozess. 32, 1078–1091 (2023).

Artikel ADS Google Scholar

Sun, X. et al. Eine Methode zur Erkennung des Ladevolumens von Bergbau-LKWs, die auf Deep Learning und Bilderkennung basiert. Sensoren 21(2), 635 (2021).

Artikel ADS PubMed PubMed Central Google Scholar

Chen, Y. & Qu, R. Studie zur Identifizierung von Verstößen gegen Kunstwerke basierend auf der CNN-Bilderkennungstechnologie. J. Phys. Konf. Ser. 1802(3), 032084 (2021).

Artikel Google Scholar

Zhang, J. et al. ROSEFusion: Zufällige Optimierung für die dichte Online-Rekonstruktion unter schneller Kamerabewegung. ACM Trans. Graph. 40(4), 1–17 (2021).

Google Scholar

Bai, H., Zhang, H. & Wang, Q. Dual diskriminierendes Auto-Encoder-Netzwerk für Zero-Shot-Bilderkennung. J. Intell. Fuzzy-System. 40(12), 1–12 (2021).

Google Scholar

Guo, W. Intelligentes Gerät zur Erkennung von Straßenerkrankungen basierend auf Bilderkennungstechnologie. J. Phys. Konf. Ser. 1884(1), 012032 (2021).

Artikel Google Scholar

Xin, M. & Wang, Y. Bilderkennung von Pflanzenkrankheiten und Insektenschädlingen basierend auf Deep Learning. Wirel. Komm. Mob. Berechnen. 2021(10), 1–15 (2021).

Artikel Google Scholar

Chen, Y. Forschung zum Bilderkennungsalgorithmus eines Faltungs-Neuronalen Netzwerks basierend auf Computer-Big-Data. J. Phys. Konf. Ser. 1744(2), 022096 (2021).

Artikel Google Scholar

Wang, Y. et al. Interaktionslernen höherer Ordnung für Bildunterschriften. IEEE Trans. Schaltungen Syst. Videotechnik. 32(7), 4417–4430 (2022).

Artikel Google Scholar

Chen, Y. Forschung zur Bilderkennung von Faltungs-Neuronalen Netzwerken unter verschiedenen Computerdatensatzkapazitäten. J. Phys. Konf. Ser. 1744(4), 042091 (2021).

Artikel Google Scholar

Tian, ​​L., Xu, H. & Zheng, X. Forschung zur Bilderkennung von Fingerabdrücken basierend auf einem Faltungs-Neuronalen Netzwerk. Int. J. Biometr. 13(1), 64 (2021).

Artikel Google Scholar

Sun, C. et al. Bilderkennungstechnologie zur Texturidentifizierung von Sonarbildern von Meeressedimenten. Komplexität 2021(2), 1–8 (2021).

ADS Google Scholar

Daradkeh, YI et al. Entwicklung effektiver Methoden zur Strukturbilderkennung unter Verwendung der Prinzipien der Datengranulation und der Apparatur der Fuzzy-Logik. IEEE Access 9(99), 13417–13428 (2021).

Artikel Google Scholar

Hu, J. et al. Entwurf eines intelligenten Vibrationsscreeningsystems für Heerwurmpuppen basierend auf Bilderkennung. Berechnen. Elektron. Landwirtschaft. 187(6), 106189 (2021).

Artikel Google Scholar

Wang, Y. et al. Auf Deep Learning basierendes Bilderkennungsmodell zur Erkennung verbleibender Ölreste aus einem Visualisierungsexperiment. Kraftstoff 291(3), 120216 (2021).

Artikel CAS Google Scholar

Zhang, Y. et al. Robuste Textbilderkennung durch kontroverse Sequenz-zu-Sequenz-Domänenanpassung. IEEE Trans. Bildprozess. 99, 1 (2021).

ADS CAS Google Scholar

Xiong, S., Li, B. & Zhu, S. DCGNN: Ein einstufiges 3D-Objekterkennungsnetzwerk basierend auf Dichte-Clustering und graphischem neuronalem Netzwerk. Komplexe Intelligenz. Syst. https://doi.org/10.1007/s40747-022-00926-z (2022).

Artikel Google Scholar

Andriyanov, NA, Dementiev, VE & Kargashin, YD Analyse der Auswirkungen visueller Angriffe auf die Eigenschaften neuronaler Netze bei der Bilderkennung. Procedia Comput. Wissenschaft. 186(12), 495–502 (2021).

Artikel Google Scholar

Cao, P. & Zhang, S. Forschung zur Bilderkennung von Wushu-Aktionen basierend auf Fernerkundungsbildern und eingebetteten Systemen. Mikroprozess. Mikrosystem. 82(3), 103841 (2021).

Artikel Google Scholar

Liu, H. et al. Lernskalenkonsistentes Aufmerksamkeitsteilnetzwerk für feinkörnige Bilderkennung. IEEE Trans. Multimedia 99, 1 (2021).

Google Scholar

Dan, HC, Bai, GW & Zhu, ZH Anwendung einer Deep-Learning-basierten Bilderkennungstechnologie auf Asphalt-Zuschlagstoff-Mischungen: Methodik. Konstr. Bauen. Mater. 297(12), 123770 (2021).

Artikel Google Scholar

Liu, G., Zhao, L. & Fang, X. PDA: Proxy-basierte Domänenanpassung für die Bilderkennung mit wenigen Aufnahmen. Bild Vis. Berechnen. 110(3), 104164 (2021).

Artikel Google Scholar

Guo, X. & Chen, J. Forschung zum Aufbau eines intelligenten Bibliothekssimulationsplattformsystems. Berechnen. Simul. 39(6), 5 (2022).

Google Scholar

Cheng, D. et al. Lichtgeführtes und Cross-Fusion-U-Net für Anti-Illumination-Bild-Superauflösung. IEEE Trans. Schaltungen Syst. Videotechnik. 32(12), 8436–8449 (2022).

Artikel Google Scholar

Referenzen herunterladen

Institut für Leibeserziehung, Yongin-Universität, Yongin, 17092, Südkorea

Xiaotong Lu

Sie können diesen Autor auch in PubMed Google Scholar suchen

Der Autor bestätigt, der alleinige Mitwirkende dieses Werks zu sein und hat es zur Veröffentlichung freigegeben.

Korrespondenz mit Xiaotong Lu.

Der Autor gibt keine Interessenkonflikte an.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative-Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Lu, X. Taekwondo-Bewegungsbilderkennungsmodell basierend auf einem hybriden neuronalen Netzwerkalgorithmus für tragbare Sensoren des Internets der Dinge. Sci Rep 13, 13097 (2023). https://doi.org/10.1038/s41598-023-40169-7

Zitat herunterladen

Eingegangen: 20. April 2023

Angenommen: 06. August 2023

Veröffentlicht: 11. August 2023

DOI: https://doi.org/10.1038/s41598-023-40169-7

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.