一个简单的例子,手机安装一个叫做Finger Gesture Launcher的软件,和我的上述方案连用。
这个时候手机上会有一个悬浮白点,只需要点一下,画出手势,就可以启动电脑应用了。比鼠标手势强的不是一星半点。
之后更新都会有演示欢迎继续关注。
一个简单的例子,手机安装一个叫做Finger Gesture Launcher的软件,和我的上述方案连用。
这个时候手机上会有一个悬浮白点,只需要点一下,画出手势,就可以启动电脑应用了。比鼠标手势强的不是一星半点。
之后更新都会有演示欢迎继续关注。
啊,这个虽然…
但是这个方法真的很有脑洞啊,点赞
我上面方案里,deskdock可以将鼠标从电脑直接移到手机,手机固定在屏幕左侧,可以直接用鼠标点击,相当于一个微型副屏,避免了目光变来变去
所以最后效果是一个更丑/便宜一点的Stream Deck?
…可是会污染Windows端的剪贴板…而且我还是没想明白使用场景和具体如何让Windows操作便捷性上升一万倍的…我更加好奇的是你如何在手机屏幕一屏里面塞下200给网站或者300个软件同时保证便捷性的…
只能说想法很有特点…
1.挪开左手/右手
2. 点亮屏幕, 别说常亮这种话, 手机禁不住这么糟蹋.
3. 笨拙的画下手势.
4. 等待手机发送消息给电脑.
5. 没反应? 应该家里的wifi有问题, 等一下
===
离开座位, 重启路由, 5分钟之后,
===
重复1-5的操作:
1.挪开左手/右手
2. 点亮屏幕, 别说常亮这种话, 手机禁不住这么糟蹋.
3. 笨拙的画下手势.
4. 等待手机发送消息给电脑.
5. 没反应?
===
手机长时间充电待机过热, wifi模块烧了. 小米11路过…
===
两天过去了. 买了一个新手机
===
一天过去了, 我终于又配置好手机了.
===
耶, 你成功了.
我高兴的用鼠标手势软件, 画了一个a, 打开https://meta.appinn.net/ , 记录并发帖这惊喜的一幕.
一,不用挪开手,方案二手机固定在键盘上。
二,旧手机,和电脑屏幕同步常亮,有什么问题?几年会烧屏?大不了到时候换个旧手机就好了?
三,我不知道是右手手指画图案灵活还是鼠标手势画图案灵活?还不怕鼠标手。
四,deskdock通过数据线同步数据,完全不存在可感知的延迟。你没有细看我的方案。
五,没有讨论意义。
方案二牺牲了方向键. 翻页键, 插入.删除键.
不好意思. 不是每个人都有一个可以root的, 能正常使用的, 旧手机.
什么? 还要练数据线. 为什么我的adb打不开, 无法开启adb调试选项? 谁能提供一下Android 手机 adb驱动? 为什么我安装之后还是没反应?
需要添加 设备id 到adb_usb.ini中? 这个文件在哪儿? 怎么添加? 什么是设备id?
为什么设备的VID前面要加0x?
我就不吐槽超级简单
的 tasker 跟pc上一众软件相比, 是多么难用了. 毕竟
Stream Deck 就是终极解决方案,无数人追逐她的背影,但是目前还没有能仿80%的廉价代餐.
首先对于楼主标题党的行为提出批评。并且记住了,下次再犯的话……咳咳
但刨除表述方面的问题,其实这个方案是不错的。因为我一直也在想做一个类似的实现。只不过我对前端以外的编程都不熟悉,所以在服务器这方面卡住了。(存在学习成本,所以一直没有动手。
这个功能大概可以部分解决我的难点。是我在这里的意外收获了。
说一下我对这个东西的想法:
……
总之,诸如此类。一个小的可以进行交互的副屏,其实是有一定存在的空间的。你也可以理解为,这其实就是苹果Touch bar的另一种实现。
当然,如果使用宏键盘在操作方面的体验可能会更好。但它又不能够即时的来输出一些状态信息。也有带有显示功能的红键盘,但是价格又会非常贵。如果用一个淘汰的旧手机,就能够实现类似的功能。我觉得我是愿意接受在使用体验上打一定折扣的。
然后想咨询一下。@cuiliang 有没有可能提供一个服务用用以输出当前状态信息。
大概是什么样的状态信息?
目前能实现的是一种“拉取”,就是在调用推送API的时候,从Quicker动作里返回自定义数据到API结果。 (这个之前是专业版功能,今天改成免费版可用了。)有兴趣可以试一下。
请求的时候指定operation为action,action参数指定要执行的动作。
在动作里,用“停止”模块返回内容。
就是在内存中维护一个数据对象,供其他软件进行轮询。
如何使用长链接就是在数据对象发生改变的时候。传递这个数据对象。
内容的话,希望可以通过电脑上的其他软件儿向其传递。
总之,就是希望能够解决双向的数据传递问题。当然,如果各种动作能够在这方面有更多的支持。和联动就更美好了。
目前缺少和移动端的长连接。Quicker的长连接是电脑和服务器之间的长连接,这样移动端在请求API的时候可以及时通知到PC端并且返回结果。
主动向移动端发送数据需要使用推送机制,比如类似于Bark这种,或者移动端工具本身也提供了推送的接口(可能有些第三方工具会提供)。
只要的请求的时候能返回一个 json 就好。 因为有一些状态的获取并不需要很频繁。让前端去进行轮询就好。
然后每一次触发操作,即便最终调用的是外部程序,也能够返回一下这个数据对象。就比如调节音量,借助这种方法可以实时的获取当前音量。
为什么要写这么垃圾广告风的标题……
哈哈哈,在广告公司写文案写出来的惯性。
嗯,返回的整体是json格式,里面的数据是动作里返回的原样数据,可以自定义格式。如果动作里直接返回的音量值,结果大概是这样:
{
"isSuccess": true,
"successCount": 1,
"errorMessage": null,
"timeCost": 16,
"devices": {
"主机名": "0.140000000596046"
}
}
哪天不摸鱼的时候,我研究一下
哈哈哈我也大受震撼
我感觉和一叶障目的楼主说下去也没什么意义。不过还是忍不住吐槽一下。
键鼠是都可以盲用的,不必看设备,看屏幕就行。
如果用鼠标就等于鼠标手,那么用触屏就等于肩周炎,后者的运动幅度更大。
有时自我满足感会让你忽视真实效率。