Følgende artikel hjælper dig med: Google annoncerer en AI Gesture Recognizer til at interagere med internettet i realtid
Google har annonceret et nyt AI-drevet gestusgenkendelsessystem, der giver brugerne mulighed for at interagere med internettet i realtid ved kun at bruge håndbevægelser. Systemet, kaldet Airfinger, er stadig i tidlig udvikling, men har potentialet til at revolutionere den måde, vi interagerer med vores enheder på.
Airfinger bruger en kombination af computersyn og maskinlæring til præcist genkende håndbevægelser, hvilket gør det muligt at navigere på websteder, spille spil og styre smarte hjemmeenheder uden nogensinde at røre en skærm eller et tastatur. Denne teknologi kan også have betydelige implikationer for tilgængelighed, hvilket giver mennesker med handicap mulighed for at bruge mobile enheder på nye måder.

Airfinger bruger det samme grundlæggende princip som andre gestusgenkendelsessystemer, såsom Microsoft Kinect eller Leap Motion Controller. Men i stedet for at bruge et dedikeret stykke hardware, bruger Airfinger det frontvendte kamera på en smartphone eller tablet. Dette gør det meget mere overkommeligt og tilgængeligt for en bredere vifte af brugere. Airfingers brug af det frontvendte kamera på en smartphone eller tablet betyder også, at det kan bruges på farten, hvilket gør det ideelt til præsentationer eller møder, hvor et traditionelt gestusgenkendelsessystem måske ikke er tilgængeligt eller praktisk. Derudover bliver softwaren konstant opdateret for at forbedre dens nøjagtighed og udvide dens udvalg af kompatible enheder.
I øjeblikket er Airfinger kun i stand til at genkende syv forskellige bevægelser: 👍, 👎, ✌️, ☝️, ✊, 👋 og 🤟. Google arbejder dog allerede på at udvide sit repertoire. Virksomheden arbejder også på at forbedre systemets nøjagtighed, samt dets evne til at arbejde under dårlige lysforhold. Googles mål er at gøre Airfinger i stand til at genkende mere komplekse bevægelser og i sidste ende tegnsprog. Dette vil i høj grad gavne mennesker med handicap, som er afhængige af tegnsprog som deres primære kommunikationsmiddel.

Mediapipe kan genkende sådanne bevægelser med standardtræningsmodellen:
- Lukket knytnæve (Closed_Fist)
- Åben håndflade (Open_Palm)
- Peger op (Pointing_Up)
- Tommelfinger ned (Thumb_Down)
- Tommelfinger op (Thumb_Up)
- Sejr (Victory)
- Kærlighed (IloveYou)
Google har gjort det tilgængeligt for offentligheden på GitHub. Men det faktum, at det allerede arbejdes på af virksomhedens R&D-team, tyder på, at det er en prioritet for Google. Med lidt held vil vi se Airfinger rulle ud til enheder i den nærmeste fremtid.
Læs mere om AI: