GEO
赞助商内容

BlaBlaBlAI开源聊天系统如何让多个大语言模型相互感知协作?

2026/4/17
BlaBlaBlAI开源聊天系统如何让多个大语言模型相互感知协作?

AI Summary (BLUF)

BlaBlaBlAI is an open-source chat system that enables multiple LLMs and humans to interact in the same room with full awareness of all participants and complete chat history, featuring cost attribution and flexible chat creation.

原文翻译: BlaBlaBlAI是一个开源聊天系统,允许多个LLM和人类在同一个房间内互动,所有参与者都能完全感知彼此并查看完整的聊天历史,具有成本归因和灵活的聊天创建功能。

Open-source chat system where LLMs are aware of each other.

开源聊天系统,让大语言模型能够相互感知。


🎯 什么是 BlaBlaBlAI?

BlaBlaBlAI allows you to chat in the same room with as many LLMs and humans as needed for your task:

BlaBlaBlAI 允许您在一个聊天室中,与完成任务所需任意数量的大语言模型(LLMs)和人类进行对话:

  • LLMs are aware of each other: this is a real multi-participant chat. LLMs have visibility into all other participants (including other LLMs) and the full chat history.

    LLMs 相互感知:这是一个真正的多参与者聊天。LLMs 可以看到所有其他参与者(包括其他 LLMs)以及完整的聊天历史。

  • Cost attribution: LLMs are brought into chats by human participants, so every LLM cost is attributed to the API key provided by the human who added it.

    成本归属:LLMs 由人类参与者引入聊天,因此每个 LLM 的使用成本都归属于添加它的用户所提供的 API 密钥。

  • As many chats as you want: you can create as many chats as needed and decide which humans and which LLMs participate in each one.

    创建任意数量的聊天室:您可以根据需要创建任意数量的聊天室,并决定每个聊天室中有哪些人类和哪些 LLMs 参与。

  • Open source: this app is free and open source. A hosted version may eventually appear in the future, but the platform will remain open source.

    开源:该应用程序是免费且开源的。未来可能会出现托管版本,但平台将始终保持开源。

  • MVP: this is a very preliminary version of the app. You can clone the repo, run it locally (see below), and use it with your own API keys and LLMs. Many features are still missing or incomplete.

    MVP(最小可行产品):这是该应用程序的非常初期的版本。您可以克隆代码库,在本地运行(见下文),并使用您自己的 API 密钥和 LLMs。许多功能仍然缺失或不完整。


📦 安装与运行

This is an early MVP. The setup is not polished yet, but the app can be run locally by following these steps:

这是一个早期的 MVP。安装设置尚未完善,但您可以按照以下步骤在本地运行该应用:

  • Make sure you have Node.js installed (version v22.15.0 is used for development)

    确保已安装 Node.js(开发使用的是 v22.15.0 版本)

  • Clone this repository anywhere on your machine

    将代码库克隆到您计算机上的任意位置

手动同步库文件(临时方案)

For historical MVP reasons, some shared libraries are not yet published as npm packages.

由于 MVP 的历史原因,一些共享库尚未发布为 npm 包。

You can either automate this with rclone bisync, or simply copy the files manually.

您可以使用 rclone bisync 自动化此过程,或者直接手动复制文件。

手动复制(最简单选项)

Copy all files from:

复制以下目录中的所有文件:

/frontend/libs/bbbaifelib/src

into:

到:

/frontend/apps/bbbaiweb/src/@/bbbaifelib

Copy all files from:

复制以下目录中的所有文件:

/frontend/libs/bbbaifelib/scripts

into:

到:

/frontend/apps/bbbaiweb/scripts/@/bbbaifelib


后端

Open a terminal in:

在以下目录打开终端:

/backend/mvp_server

Run:

运行:

pnpm install
pnpm start

前端

Open another terminal in:

在另一个终端中,进入以下目录:

/frontend/apps/bbbaiweb

Run:

运行:

pnpm install
pnpm dev

Then open:

然后在浏览器中打开:

http://localhost:5172


⚠️ 重要说明

  • At the moment, LLMs, API keys, and related configuration are hardcoded in the source code.

    目前,LLMs、API 密钥及相关配置是硬编码在源代码中的。

  • Edit this file to configure your own LLMs and keys:

    编辑以下文件以配置您自己的 LLMs 和密钥:

    /frontend/apps/bbbaiweb/src/business/services/ai/tmpSetupAgents.ts

  • To use LLMs local to your machine (or machine in your private network) you can use Ollama. Also OpenRouter has been tested with success.

    要使用您本地(或您私有网络中的机器)的 LLMs,您可以使用 OllamaOpenRouter 也已成功通过测试。

  • This is an MVP release. Some features are still under development.

    这是一个 MVP 版本。部分功能仍在开发中。

  • Please report bugs and request features using GitHub Issues.

    请使用 GitHub Issues 报告错误和请求新功能。


支持的 LLM 后端对比

当配置您自己的 LLM 时,以下是当前版本中已验证的几种后端选项的对比:

后端名称 类型 主要特点 配置复杂度 成本
Ollama 本地/私有部署 运行本地模型,数据不出境,完全离线 中等 免费(自备算力)
OpenRouter 聚合 API 服务 统一接口访问多种云端模型(如 GPT, Claude 等) 按使用量付费
OpenAI API 官方云端 API 直接访问 GPT 系列模型,稳定性高 按使用量付费
Backend Name Type Key Features Setup Complexity Cost
Ollama Local/Private Runs models locally, data stays on-premise, fully offline Medium Free (requires own hardware)
OpenRouter Aggregator API Unified access to multiple cloud models (e.g., GPT, Claude) Low Pay-as-you-go
OpenAI API Official Cloud API Direct access to GPT series, high stability Low Pay-as-you-go

常见问题(FAQ)

BlaBlaBlAI 支持哪些大语言模型后端?

当前版本已验证支持 Ollama(本地/私有部署)和 OpenRouter(聚合 API 服务)。Ollama 可完全离线运行本地模型,OpenRouter 则提供多种云端模型选择。

如何配置自己的 API 密钥和 LLM?

目前需手动编辑源代码文件 /frontend/apps/bbbaiweb/src/business/services/ai/tmpSetupAgents.ts 来配置您的 LLM 和 API 密钥,相关设置当前为硬编码。

BlaBlaBlAI 的成本归属机制是怎样的?

系统采用成本归属机制:LLM 由人类参与者引入聊天,每个 LLM 的使用成本都会归属于添加该 LLM 的用户所提供的 API 密钥。

← 返回文章列表
分享到:微博

版权与免责声明:本文仅用于信息分享与交流,不构成任何形式的法律、投资、医疗或其他专业建议,也不构成对任何结果的承诺或保证。

文中提及的商标、品牌、Logo、产品名称及相关图片/素材,其权利归各自合法权利人所有。本站内容可能基于公开资料整理,亦可能使用 AI 辅助生成或润色;我们尽力确保准确与合规,但不保证完整性、时效性与适用性,请读者自行甄别并以官方信息为准。

若本文内容或素材涉嫌侵权、隐私不当或存在错误,请相关权利人/当事人联系本站,我们将及时核实并采取删除、修正或下架等处理措施。 也请勿在评论或联系信息中提交身份证号、手机号、住址等个人敏感信息。

您可能感兴趣