2023
图片资源
永远可以相信谷歌的图片搜索
- 如下载了一篇网络会议的 pdf,觉得里面的流程图很厉害,想找到他的来源,那么可以截图,然后谷歌图片搜索,如果文章引用的比较多的话,可以轻松将这个图所在的文献找出来。
- 如搜索 3d 回收工厂,YouTube 上面搜过了,但是有没有想过图片比视频要来的容易,发布者很有可能执法不了相关的图片,却没有发布相关视频(或出于企业保密内容),那么此时直接进谷歌图片,搜相应的名称,或许结果要比 YouTube 视频网站出来的结果多些
PDF 文档
比如说搜索某个领域的发展现状以及进展,可以使用如下语法,可以下载到有关芯片这个行业当前最新的一些进展
|
|
|
|
2025
到了 2025 年,搜索不再是单一的动作,而是一个“AI 启发 + 传统指令验证”的闭环过程
filetype:pdf 的地位提升:从“搜信息”到“搜权威”
大模型虽然能总结知识,但它容易产生“幻觉”。如果你在研究你感兴趣的 CEMS(烟气在线监测),AI 的回答可能模棱两可。
- 新用法: 先让 AI 告诉你某个技术标准的名词(例如:HJ 76-2017),然后立即使用
HJ 76-2017 filetype:pdf去获取原始文档。 - 原因: 官方 PDF 是第一手信源,是大模型生成答案的“锚点”。
AI 搜索(如 Perplexity, Gemini)的角色:语义理解
传统的 Google 搜索是关键词匹配,而 AI 是语义匹配。
- 传统搜索: 你得想好关键词(芯片制造业 发展路线图)。
- AI 搜索: 你可以直接问:“帮我梳理 2024-2025 年全球先进制程芯片的竞争格局,并给出几个关键的时间节点。”
谷歌图片搜索:从“找图”到“视觉解析”
- 新用法: 看到一个复杂的电路板或机械结构图,先丢给 AI 问:“这是什么原理?”得到关键词后,再用谷歌图片搜索去找它的原始出处或专利图。
- 升级: 现在配合 Google Lens(多模态搜索),你可以直接圈选图片中的某个零件进行搜索,这比以前截图再上传要快得多。
RAG 技术
- 简单直接型: ChatPDF 或 Claude.ai(直接上传 PDF 提问,其实就是后台自动做了 RAG)。
- 深度研究型: NotebookLM(谷歌出品,专门针对多文档 RAG,非常适合做研究)。
- 笔记整合型: 如果你用 Obsidian,可以安装 Smart Connections 插件,它能基于你的本地笔记建立 RAG,让你跟自己的笔记“对话”。