AI穿戴硬件,串起你的碎片时间
周末的公园,阳光正好。孩子像一颗不知疲倦的弹球,在滑梯、沙坑和秋千之间来回发射。你站在三米开外,一个标准的“家长守望位”。身体是放松的,但神经像一根绷着的橡皮筋-孩子冲向人群的瞬间,爬高到危险边缘的刹那,都需要你0.5秒内做出反应。这时候,口袋里那个万能的小方块,忽然变得很尴尬。掏出来?解锁,点开,目光刚沉入屏幕,孩子可能已经跑到视线盲区。不掏?滑梯排队的一分钟,秋千荡起的几十个来回,这些碎片时间
关于「人机交互」的技术文章、设计资料与工程师讨论,持续更新。
周末的公园,阳光正好。孩子像一颗不知疲倦的弹球,在滑梯、沙坑和秋千之间来回发射。你站在三米开外,一个标准的“家长守望位”。身体是放松的,但神经像一根绷着的橡皮筋-孩子冲向人群的瞬间,爬高到危险边缘的刹那,都需要你0.5秒内做出反应。这时候,口袋里那个万能的小方块,忽然变得很尴尬。掏出来?解锁,点开,目光刚沉入屏幕,孩子可能已经跑到视线盲区。不掏?滑梯排队的一分钟,秋千荡起的几十个来回,这些碎片时间
在上篇文章中对多级菜单式GUI进行了简单的介绍,也给出了实际的演示视频,可以看出实际效果中我使用的文字作为选项,但不管是文字选项还是图标选项都是一样的,只不过是显示内容不一样而已,只需要更改一个函数就可以随意转换,今天讲讲源码实现相关的内容吧。 先贴上源码:(注意绘线、绘框、绘制位图提供的方法不一定可用,最好自己提供) `#ifndef __M_GUI_H define __M_GUI_H inc
有时候项目需求中需要人机交互,显示设备选择的是单色OLED屏,不支持触摸,操作接口是按键,如果你不想移植复杂的窗口式GUI库,就可以使用这种简洁的菜单式GUI(其实也不能完全的称之为GUI,一个GUI包含很多东西,我只是提供了一种思路,可以叫做框架吧),当然这种多级菜单结构也不限于用在OLED屏上,某些需要做一些菜单结构的场景也同样适用,只要你能用OLED显示内容,那么就可以很简单的用起来,最终实
具身智能的交互革命——从“执行指令”到“协作伙伴” 试想这样一个场景:当你对家用服务机器人说“帮我收拾客厅,别碰桌上的文件”,它不仅听懂了“收拾”的指令,还精准get到“别碰文件”的潜台词——这不是科幻电影片段,其背后是大语言模型(LLM)赋能具身智能所掀起的一场人机交互革命。给AI装上物理“身体”,让其在真实世界感知、行动,这本就是具身智能的核心理念,而LLM的出现,让具身智能更有了“善解人意”