A Windows application that uses multiple webcams to capture human motion using AI. Captured motion can be exported via OSC (VMT, VMC) protocol or shared memory in real time, or saved as BVH files or FBX files. Hand tracking and face tracking supported.
모든 평가
사용자 평가 7개 - 점수를 표시하려면 사용자 평가가 더 필요합니다.
출시일:
2021년 12월 30일
태그

로그인하셔서 게임을 찜 목록에 추가하거나, 팔로우하거나 또는 제외하기로 표시하세요.

앞서 해보는 소프트웨어

이 소프트웨어가 개발되는 과정에 참여하세요.

주의 사항: 이 앞서 해보기 소프트웨어는 완성되지 않았으며 앞으로 더 변하거나 변하지 않을 수 있습니다. 현재 상태의 소프트웨어가 흥미롭지 않다면 이 소프트웨어가 개발을 거치며 발전하는지 살펴보는게 좋습니다. 앞서 해보기에 대해 더 알아보세요.

개발자의 한마디:

왜 앞서 해보기를 하나요?

“Our application has already been used by a large number of users since its release in June 2021. We have received a lot of feedbacks on our Discord server, and we have upgraded our app more than 15 times so far, though many requests are still on the ToDo list. We are planning to continue upgrading as follows and accepting feedbacks from users.
Q1 2022:
- Add upper body only mode (=> Released in v1.15)
- Improve performance by reducing rendering (=> Released in v1.15)
- Add read/write function of setting preset
Q2 2022:
- Improve tracking accuracy using time series data
- Add data output format (=> Released in v1.16)”

이 소프트웨어는 대략 얼마간 앞서 해볼 수 있나요?

“For 1 to 2 years.”

정식 버전은 앞서 해보기 버전과 어떻게 달라지나요?

“In the future version, we plan to improve the user interface, reduce CPU/GPU usage, improve estimation accuracy, and add data output options.”

지금 앞서 해보기 버전은 어떤 상태인가요?

“Basically, all necessary functions have been implemented, and it is in a state where it can be practically operated in terms of load and accuracy, such as use with VR applications and send data to DCC tools or game engines.”

이 소프트웨어는 앞서해보기 기간동안 가격이 달라질 수도 있습니까?

“We plan to raise the price as new features are implemented.”

개발 과정에 어떻게 커뮤니티를 참여시킬 계획이신가요?

“We accepts suggestions and bug reports at our Discord server.”
더 읽어보기
한국어(을)를 지원하지 않습니다

이 제품은 귀하의 로컬 언어를 지원하지 않습니다. 구매하기 전에 아래에 있는 지원하는 언어 목록을 확인해주세요.

MocapForAll Demo 다운로드

MocapForAll 구매

 
모든 토론 보기

이 소프트웨어의 버그를 신고하고 피드백을 토론 게시판에 남겨주세요

소프트웨어 정보

--------
PLEASE TRY DEMO VERSION FIRST
Make sure the app works in your environment before purchase. The demo version has limited functionality only for data export.
--------

This is a Windows application that uses multiple webcams to capture human motion using AI.

No special equipment required

You can capture human motion if you have the followings:
  • a middle range PC
  • 2 or more webcams
  • a room of about 2.5m x 2.5m
You can use regular webcams like the ones used in video conferences. You can also use apps that turns your smartphones or tablets into webcams.

Realtime with a middle range PC

For examples, it runs at
  • around 17 fps on Surface Pro 7 which does not have a dedicated GPU
  • 30 to 60 fps on GTX 1080 Ti

What you can do with MocapForAll

  • You can output captured motion to the network(*1) via VMT protocol(*2) and VMC protocol(*3) in real time.
  • You can save the captured motion to files in BVH format and FBX format.
  • You can output captured motion to the shared memory in real time.

(*1) Both VMT protocol and VMC protocol use UDP/OpenSound Control.
(*2) "VMT protocol" here refers to the message format used in the communication of Virtual Motion Tracker. The official HP of Virtual Motion Tracker does not use the word "VMT protocol", but MocapForAll uses the word "VMT protocol" for convenience.
(*3) "VMC protocol" is a message format used for communication between applications such as VirtualMotionCapture. Note that VirtualMotionCapture itself is not required for other compatible apps to communicate with each other using VMC protocol.

These allow you to do the followings:

Use in SteamVR via Virtual Motion Tracker
Through Virtual Motion Tracker, the capture motion can be used as virtual trackers in applications running on SteamVR.

Use in Unreal Engine4, Unreal Engine5, Unity
You can send the captured motion to Unreal Engine4, Unreal Engine5, or Unity for game development or video production.
  • Plugins for linking data directly to UE4, UE5, or Unity are available from the online manual.
  • As described in Use in other apps via VMC protocol, it is also possible to link by EVMC4U and VMC4UE using VMC Protocol.
  • A Unity sample to read data from the shared memory written by MocapForAll is available from the online manual.

Use in other apps via VMC protocol
You can send the captured motion to various applications via the VMC protocol. The following are confirmed to work:
  • Sending bones and facial expression morphs to Unity using EVMC4U
  • Sending bones and facial expression morphs to Unreal Engine using VMC4UE
  • Sending bones to Blender using VMC4B
  • Sending bones to VSeeFace, and receiving facial expression morphs from VSeeFace
  • Sending tracker to VirtualMotionCapture

Save animations to files
You can save the captured motion as BVH files and FBX files. It can be used with Blender etc.

Create programs to receive data
As the output specifications are open to public (except for FBX), you can even create your own programs to receive data from MocapForAll.

시스템 요구 사항

    최소:
    • 64비트 프로세서와 운영 체제가 필요합니다
    • 운영 체제: Windwos 10
    • 프로세서: 1.1GHz quad-core processor
    • 메모리: 8 GB RAM
    • 저장공간: 2 GB 사용 가능 공간
    • 추가 사항: Tested on Surface Pro 7
    권장:
    • 64비트 프로세서와 운영 체제가 필요합니다
    • 운영 체제: Windwos 10
    • 프로세서: 4.5GHz quad-core processor
    • 메모리: 16 GB RAM
    • 그래픽: Geforce GTX 1080 Ti
    • DirectX: 버전 12
    • 저장공간: 2 GB 사용 가능 공간

고객 평가

평가 유형


구매 형식


언어


날짜 범위
특정 날짜 범위에 속하는 평가를 보려면, 위의 그래프에서 선택 항목을 클릭한 후 드래그하거나 원하는 바를 클릭하세요.

그래프 보기



플레이 시간
평가를 작성한 시점의 사용자 플레이 시간을 기준으로 평가를 필터링:



최소 시간 없음 ~ 최대 시간 없음
검색 조건:
그래프 보기
 
그래프 숨기기
 
필터
주제에서 벗어난 평가 활동 제외
플레이 시간:
위에서 설정한 필터 조건에 맞는 평가가 없습니다
다른 평가를 보려면 위에서 필터를 조정해주세요
평가 불러오는 중...