ウェブカメラで顔や体の動きをトラッキングして3Dアバターを動かせる「KalidoKit」のソースコードが公開中 - GIGAZINE

19コメント 2021-11-12 07:01|GIGAZINE

ツイッターのコメント(19)

っていうような事を考えてたらこういうの見つけてちょっと試してみたくなったのだった
ウェブカメラで手をトラッキング
無料でこのツール使えるのは凄すぎますね。
blenderでモデル作って自分で動かして遊んでみたい。
ソース公開されていた
顔の表情、体や手の動きをトラッキングして3Dモデルに反映させるツール「KalidoKit」のソースコードがGitHubで公開されました。このKalidoKitを使うことでウェブカメラで撮影した自身の動きを2Dモデルや3Dモデルに反映させVTuberのアバターを動作させることも可能となります
お、フルトラ買ってない勢としては試したい

GIGAZINE: ウェブカメラで顔や体の動きをトラッキングして3Dアバターを動かせる「KalidoKit」のソースコードが公開中.
ええええ!?
既存のライブラリを組み合わせて実装してるね。VRMとLive2Dに対応しているみたいだし、これを使ったKalidoface 3Dならブラウザ上で試せるので、興味のある人は遊んでみたらいいんじゃないかな。
ここまで細かくトレースできるなんて、スゴすぎます🐬
指まで認識されてる、すごい。
気になる日本のITニュース📺
!? これは…!
「Kalidoface 3D」のコア技術が「KalidoKit」ですね。ソースコードが公開されたことで応用する技術者が出てくるかもしれません。☺️
授業バ美肉して出るか…
ほぉー( ˙꒳​˙ )
ウェブカメラで顔や体の動きをトラッキングして3Dアバターを動かせる「KalidoKit」のソースコードが公開中...
以上
 
PR
PR