Perplexica - AI 驱动的搜索引擎

发布于:2024-11-29 ⋅ 阅读:(40) ⋅ 点赞:(0)

更多AI开源软件:

AI开源 - 小众AIicon-default.png?t=O83Ahttps://www.aiinn.cn/sources

Perplexica 是一个开源的 AI 驱动的搜索工具或 AI 驱动的搜索引擎,可以深入互联网寻找答案。受 Perplexity AI 的启发,它是一个开源选项,不仅可以搜索网络,还可以理解您的问题。它使用先进的机器学习算法(如相似性搜索和嵌入)来优化结果,并通过引用的来源提供明确的答案。

主要功能

  • 本地 LLM:您可以使用 Ollama 使用本地 LLM,例如 Llama3 和 Mixtral。

  • 两种主要模式:

    • Copilot 模式:(开发中)通过生成不同的查询来查找更相关的 Internet 资源,从而促进搜索。与普通搜索一样,它不仅使用 SearxNG 的上下文,还访问排名靠前的匹配项,并尝试直接从页面查找与用户查询相关的来源。
    • 正常模式:处理您的查询并执行 Web 搜索。
  • 对焦模式:用于更好地回答特定类型问题的特殊模式。Perplexica 目前有 6 种专注模式:

    • 所有模式:搜索整个 Web 以查找最佳结果。
    • 写作助手模式:有助于编写不需要搜索 Web 的任务。
    • 学术搜索模式:查找文章和论文,非常适合学术研究。
    • YouTube 搜索模式:根据搜索查询查找 YouTube 视频。
    • Wolfram Alpha 搜索模式:回答需要使用 Wolfram Alpha 进行计算或数据分析的查询。
    • Reddit 搜索模式:在 Reddit 上搜索与查询相关的讨论和意见。

安装和使用

安装 Perplexica 主要有两种方式 - 使用 Docker、不使用 Docker。强烈建议使用 Docker。

Docker 安装(推荐)
  1. 确保您的系统已安装并运行 Docker。

  2. 克隆 Perplexica 存储库:

    git clone https://github.com/ItzCrazyKns/Perplexica.git
    
  3. 克隆后,导航到包含项目文件的目录。

  4. 将文件重命名为 。对于 Docker 设置,您只需填写以下字段:sample.config.tomlconfig.toml​

    • ​OPENAI​:您的 OpenAI API 密钥。如果您希望使用 OpenAI 的模型,则只需填写此字段。
    • ​OLLAMA​:您的 Ollama API URL。您应该将其输入为 。如果您在端口 11434 上安装了 Ollama,请使用 .对于其他端口,请进行相应调整。如果您希望使用 Ollama 的模型而不是 OpenAI 的模型,则需要填写此字段。http://host.docker.internal:PORT_NUMBERhttp://host.docker.internal:11434​
    • ​GROQ​:您的 Groq API 密钥。如果您希望使用 Groq 的托管模型,则只需填写此字段。
    • ​ANTHROPIC​:您的 Anthropic API 密钥。如果您希望使用 Anthropic 模型,则只需填写此字段。
      **注意**:您可以在启动 Perplexica 后从设置对话框更改这些内容。
    • ​SIMILARITY_MEASURE​:要使用的相似性度量(默认情况下已填充;如果您对此不确定,可以将其保留原样。
  5. 确保您位于包含该文件的目录中,然后执行:docker-compose.yaml​

    docker compose up -d
    
  6. 等待几分钟,让设置完成。您可以在 Web 浏览器中 http://localhost:3000 访问 Perplexica。

**注意**:构建容器后,您可以直接从 Docker 启动 Perplexica,而无需打开终端。

非 Docker 安装
  1. 安装 SearXNG 并在 SearXNG 设置中允许格式化。JSON​
  2. 克隆存储库并将文件重命名为根目录中。确保填写此文件中的所有必填字段。sample.config.tomlconfig.toml​
  3. 将文件重命名为 in the folder 并填写所有必需的字段。.env.example.envui​
  4. 填充配置和环境文件后,在文件夹和根目录中运行。npm iui​
  5. 安装依赖项,然后在文件夹和根目录中执行。npm run buildui​
  6. 最后,通过在文件夹和根目录中运行来启动前端和后端。npm run startui​

**注意**:建议使用 Docker,因为它可以简化设置过程,尤其是管理环境变量和依赖项时。

有关更多信息,例如公开您的网络等,请参阅安装文档

Ollama 连接错误

如果您遇到 Ollama 连接错误,可能是由于后端无法连接到 Ollama 的 API。要解决此问题,您可以:

  1. **检查您的 Ollama API URL:**确保在设置菜单中正确设置了 API URL。

  2. **根据操作系统更新 API URL:**

    • 窗户:用http://host.docker.internal:11434​
    • 苹果电脑:用http://host.docker.internal:11434​
    • Linux的:用http://<private_ip_of_host>:11434​

    如果您使用的是其他端口号,请调整端口号。

  3. **Linux 用户 - 将 Ollama 暴露给网络:**

    • 在 里面,你需要添加 。然后按 重新启动 Ollama。有关更多信息,请参阅 Ollama 文档/etc/systemd/system/ollama.serviceEnvironment="OLLAMA_HOST=0.0.0.0"systemctl restart ollama​
    • 确保端口(默认为 11434)未被防火墙阻止。

用作搜索引擎

如果您希望使用 Perplexica 作为 Google 或 Bing 等传统搜索引擎的替代品,或者如果您想添加快捷方式以便从浏览器的搜索栏快速访问,请按照以下步骤操作:

  1. 打开浏览器的设置。
  2. 导航到“搜索引擎”部分。
  3. 使用以下 URL 添加新的站点搜索: .替换为您的 IP 地址或域名,如果 Perplexica 未在本地托管,则替换为端口号。http://localhost:3000/?q=%slocalhost3000​
  4. 单击添加按钮。现在,您可以直接从浏览器的搜索栏使用 Perplexica。

使用 Perplexica 的 API

Perplexica 还为希望将其强大的搜索引擎集成到自己的应用程序中的开发人员提供了一个 API。您可以运行搜索、使用多个模型并获取查询的答案。

有关更多详细信息,请在此处查看完整文档。

将 Perplexica 暴露给网络

您可以按照我们的网络指南通过家庭网络访问 Perplexica。


网站公告

今日签到

点亮在社区的每一天
去签到