网上很多教程教你怎么自己搭 ai 模型,但今天我要教大家一个野路子——用搜索引擎直接找别人已经搭好的 ai(ollama)服务(前提是合法使用)。就像有人忘记关 wi-fi,我教你怎么发现这些"公共资源"。
一、用 Fofa 找公开的 AI 服务Fofa 是什么?Fofa 是一个网络空间测绘搜索引擎,相当于一个专门搜网络设备的百度,能找出各种暴露在公网的服务。
操作步骤:
打开网站:https://fofa.info在搜索框粘贴这句话:app="Ollama" && is_domain=false(意思是找直接暴露 IP 地址的 Ollama 服务)结果怎么看?
看到类似http://IP:11434的地址,可以试试浏览器访问如果能打开 Ollama 的 API 文档页面,说明找到可用服务了重要提醒:就像不能乱连别人 Wi-Fi,这里也请确认服务是公开可用的Shodan 是啥?用大白话解释:Shodan 是互联网设备的“搜索引擎”,但它不搜网页内容,而是专门找各种联网的“设备”和“服务”。
好比说,Google 能搜到“蛋糕的做法”,而 Shodan 能搜到“哪些烤箱连上了互联网且没设密码”。
操作流程:
访问 shodan.io直接搜:Ollama is running(找正在运行的 Ollama 服务)举个栗子:
看到http://203.120.5.6:11434这样的地址如果能打开 Ollama 的 API 文档页面,说明找到可用服务了记得先检查是否有免责声明或使用条款方法 1:直接调接口
代码语言:javascript代码运行次数:0运行复制import requestsimport json# Ollama默认地址(如果是公开服务需替换IP和端口)OLLAMA_URL = "http://ip:11434/api/generate"def stream_chat(prompt, model="deepseek-r1"): payload = { "model": model, "prompt": prompt, "stream": True# 开启流式传输 } try: with requests.post(OLLAMA_URL, json=payload, stream=True) as response: response.raise_for_status() full_response = [] for line in response.iter_lines(): if line: chunk = json.loads(line.decode('utf-8')) print(chunk['response'], end='', flush=True) # 实时输出 full_response.append(chunk['response']) return''.join(full_response) except Exception as e: print(f" 流式请求异常: {e}") returnNone# 使用示例stream_chat("写一个关于人工智能的短故事")
方法 2:用 Chatbox 客户端
下载 Chatbox(https://chatboxai.app)找到左下角 设置 → 模型提供方选 Ollama → 填找到的 IP 地址希望天晴下载这一宝藏平台能持续成为您探索数字世界的得力助手。未来若有任何需求或疑问,别忘了这里是您的首选解答站!
侵权/下架等问题请将详细资料(包括资料证明,侵权链接)等相关信息发送至邮箱:423292473@qq.com