据悉,mad gaze于官方网站开发者社区正式上线mr智能眼镜专属sdk,流畅优质的开发者创作新旅程,亦同场开启!让我们共同期待下一个杀手级应用的诞生吧。
为激发开发者创作灵感,mad gaze 发布的sdk集结了空间计算、多元交互模式、优化渲染三大核心功能,支持unity引擎及安卓原生系统,并且可以兼容第三方sdk,赋能开发者轻松投入创作,顺畅、高效地创建一系列匹配glow的mr应用。专属sdk登陆:www.sdk.madgaze.com
空间计算,增加互动乐趣
空间计算方面,glow配备精密的跟踪系统,支持slam(同时定位与地图构建)。sdk基于imu9轴,包括加速度计、磁力计和陀螺仪,搭配手势控制、语音识别、图像识别,能够细致感知现实环境,满足显示、定位、环境认知等功能。
开发者使用mad gaze sdk 提供的空间计算封装包,可以迅速创建mr混合现实的应用,完美融合现实与想象空间,为玩家提供超凡的mr体验。
全球的游戏开发者都可以在这个平台上自主开发,被hand gesture sdk选中的开发者还可以有机会去结合手势识别与控制功能再深层次的展开开发,并转化成可以实际操控的真实游戏。这是一个真正意义上的开发者圣地,一个交流,学习的全新社区。
多元交互模式,融合用户场景
glow 搭配蓝牙游戏手柄
针对glow用户工作、生活、娱乐等等不同的使用场景,mad gaze sdk 提供多元化的交互模式,具备完整的智能眼镜人机交互系统。
glow 搭配蓝牙键盘,实现随时随地防窥办公
mad gaze 团队已经开发出与glow 配对使用的蓝牙键盘、游戏手柄,及最新的骨传导智能手表—— mad gaze watch。这款智能手表是同步与glow的sdk,因此用户或者开发者可以使用以上硬件或者智能手机进行交互,轻松融入各式各样的应用场景。
mad gaze「watch」拥有33种手势操控方式
当手指敲击皮肤是,皮肤底层组织和骨头会产生不同的振动波,手表里的传感器会探测t0与 tn之间不同位置产生的振动波,通过算法来识别不同的敲击位置从而执行不同的指令。
由于mad gaze的手势识别交互是基于纯算法,以单个rgb摄像头器件即可获取精准数据,透过图像处理、统算法、机器学习等方式,呈现实时手势识别功能。该算法直接预载于系统底层,减低由摄像头截取数据至用户看到反馈的时间延迟,迅速提高便利及可塑性。
ces 2020 用户在体验我们最新手势识别技术
借助33种手势操控方式,始终可以让大家使用到sdk自定义应用程序中的相应操作,创建个性化的控制体验。
云端渲染,实时提升体验
云端渲染技术,能实现大批量数据优化渲染,提升mr体验,降低延时并快速回应,可以减少用户的晕眩感,实时提升体验的流畅舒适感。
接入第三方sdk,更多玩法
除了以上三大核心的内容,mad gaze sdk作为开放式平台,还主动接入第三方sdk,并通过api应用编程接口,方便开发者随时调用mr眼镜系统或者数据去执行应用程序的命令,拓展玩法与更多功能。
打造ar生态圈一直是mad gaze 的愿景,此次上线的sdk可同时兼容glow及watch两款硬件。mad gaze sdk开发包功能非常有吸引力,新的功能将会陆续开放,敬请期待!欢迎全球优秀的内容开发者加入我们的开发者社区,共建ar大生态圈。登录mad gaze的官方网站,了解更多额外的配套支持与详情。
本文为vr陀螺原创,转载请注明来源,附上原文链接并保留作者信息。