영어
아바타

ABI
@OpenGesture

OpenGesture skill seeks to simplify the process of learning and understand the sign language .

OpenGesture 님의 목표는 매주 ZAR150.00 만큼을 받는 것입니다.
기부하기   PayPal

설명

The OpenGesture Skill uses a model built upon an Encoder-Decoder Convolutional Neural Network and Convolutional LSTM for pixel-level prediction, which independently capture the spatial layout of an image and the corresponding temporal dynamics. By independently modelling hand motion and content, predicting the next frame reduces to converting the extracted content features into the next frame content by the identified hand motion features, which simplifies the task of prediction.

Alexa handles the Speech Recognition using a custom built skill Speech-To-Sign Language translation which recognises the words being spoken, regardless of whom the speaker is. The OpenGesture skill for Alexa will perform the recognition process through matching the parameter set of the input speech with the stored templates to finally display the sign language in video format.

다른 곳의 계정

OpenGesture 님은 다른 플랫폼에서 다음 계정을 소유하고 있습니다:

역사

OpenGesture 님은 5년 전에 가입했습니다.

주당 수익 (남아프리카 랜드)

주간 후원자 수

이 페이지에는 아직 검토되지 않았으며 정확하지 않을 수 있는 기계 번역된 텍스트가 포함되어 있습니다. 번역에 기여할 수 있습니다.