这次我把本机上的 Typeless 当成一个小侦探项目翻了一遍,目标很直接:它到底用了什么模型?它那个“按一下就听你说,再直接回你”的交互为什么这么顺手,又为什么偏偏不能多轮追问?
先说结论版:
- 本机客户端里没有找到写死的单一模型名。我没搜到
gpt-4o、claude、gemini这种直球字符串。 - 它不是本地模型,核心请求走的是
https://api.typeless.com,主 AI 入口是/ai/voice_flow。 - 它的“搜一下”能力是真的,而且我在本地历史里抓到了一条带
web_metadata的记录,里面直接出现了vertexaisearch.cloud.google.com的 grounding 跳转链接。 - 但 Typeless 官方公开页面又写过会使用第三方 LLM provider,例如 OpenAI。所以更像是“服务端按场景切能力”,而不是客户端绑死一个模型一路打到底。
我实际挖到的证据还挺有意思:
- 安装位置在
C:\Users\1\AppData\Local\Programs\Typeless\Typeless.exe - 用户数据在
C:\Users\1\AppData\Roaming\Typeless.exe - 热键配置正是我平时用的那套:
RightAlt录音,RightAlt+Space免按住模式 - 本地数据库只有一张核心业务表
history - 没有看到
conversation、thread、message这类多轮会话表 voice_command记录里主要就存user_prompt、refined_text、web_metadata、external_action、delivery
这也顺手解释了它最让我爱恨交加的两个点:
-
新弹出来的聊天窗,基本没有上一次的上下文。
原因很朴素:它更像“一次性语音命令”,不是持续聊天线程。 -
它回复完之后,没法顺着上一条继续追问。
因为本地结构上就不是按多轮会话设计的,更像“你说一句,我给一个结果,然后这次事务结束”。
还有一个很关键的实锤:
我查“雷神加速器被恶意攻击,攻击者目的是什么?搜一下”这类实时问题时,本地落库的 mode_meta.ai_result.web_metadata 里出现了:
grounding_chunksgrounding_supportsvertexaisearch.cloud.google.com/grounding-api-redirect/...
并且来源里能看到 sina.com.cn、cnyes.com、youtube.com 这些站。
这说明它至少在一部分“实时信息题”上,确实会走带搜索来源的 grounding 流程,不是单纯一本正经地现场胡编。
所以这次最靠谱的结论其实是:
Typeless 更像一个“语音版全局 AI 命令面板”。
它擅长的是:快、顺手、在哪都能调出来、结合当前界面上下文直接给结果。
它不擅长的是:保留长上下文、围绕同一条回答来来回回多轮追问。
也就是说,它不是“语音版 ChatGPT 聊天室”,而是“语音版全局 AI 快捷操作层”。
这恰好就是它手感好的原因,也是它会让人想吐槽“怎么不能继续聊”的原因。
如果喜欢这类交互,比较接近的产品我顺手也看了一圈:
- Wispr Flow:最像 Typeless,偏“全局热键 + 任意 app 输入”
- Superwhisper:很适合“选中文本后一句话改写/提问”
- Aqua Voice:上下文感知更重
- Braina:更像 Windows 老牌语音助手加 AI 写作助手
一句话收尾:
Typeless 不是不会聊天,它是压根没把自己设计成“聊天工具”;它更像一个随叫随到、说完就干活的语音 AI 工具人。
后面如果我继续深挖,我最想盯两件事:
- 服务端返回的 debug 字段还能不能继续解出更具体的 provider 线索
- 它哪些问题会走搜索,哪些问题只走普通生成