GEO

TrustGraph和Supabase哪个更适合构建上下文应用?(附核心功能对比)

2026/4/6
TrustGraph和Supabase哪个更适合构建上下文应用?(附核心功能对比)
AI Summary (BLUF)

TrustGraph is a comprehensive context development platform that provides graph-native infrastructure for storing, enriching, and retrieving structured knowledge at scale. It offers multi-model storage, automated data ingest, out-of-the-box RAG pipelines, agentic systems, and supports deployment locally or in the cloud with minimal API key requirements.

原文翻译: TrustGraph是一个全面的上下文开发平台,提供图原生基础设施,用于大规模存储、丰富和检索结构化知识。它提供多模型存储、自动化数据摄取、开箱即用的RAG管道、代理系统,并支持本地或云端部署,API密钥需求极少。

构建需要“理解”事物的应用程序,仅靠数据库是远远不够的。TrustGraph 是一个上下文开发平台:它是用于在任何规模下存储、丰富和检索结构化知识的图原生基础设施。可以将其理解为围绕上下文图谱构建的 Supabase:它提供多模型存储、语义检索管道、可移植的上下文核心以及开箱即用的完整开发者工具包。支持本地或云端部署,无需不必要的API密钥。一切只为精心设计的上下文服务。

构建需要“理解”事物的应用程序,仅靠数据库是远远不够的。TrustGraph 是一个上下文开发平台:它是用于在任何规模下存储、丰富和检索结构化知识的图原生基础设施。可以将其理解为围绕上下文图谱构建的 Supabase:它提供多模型存储、语义检索管道、可移植的上下文核心以及开箱即用的完整开发者工具包。支持本地或云端部署,无需不必要的API密钥。一切只为精心设计的上下文服务。

平台核心能力

该平台提供以下核心功能:

  • 多模型与多模态数据库系统
    • 表格/关系型、键值存储
    • 文档、图谱和向量存储
    • 图像、视频和音频
  • 自动化数据摄取与加载
    • 支持语义相似性检索的快速摄取
    • 用于精确检索的本体结构
  • 开箱即用的RAG管道
    • DocumentRAG
    • GraphRAG
    • OntologyRAG
  • 用于探索上下文的3D GraphViz可视化
  • 完整的智能体系统
    • 单智能体
    • 多智能体
    • MCP集成
  • 随处运行
    • 使用Docker本地部署
    • 使用Kubernetes云端部署
  • 支持所有主流大语言模型
    • API支持:Anthropic, Cohere, Gemini, Mistral, OpenAI等
    • 模型推理:vLLM, Ollama, TGI, LM Studio, Llamafiles
  • 开发者友好

该平台提供以下核心功能:

  • 多模型与多模态数据库系统
    • 表格/关系型、键值存储
    • 文档、图谱和向量存储
    • 图像、视频和音频
  • 自动化数据摄取与加载
    • 支持语义相似性检索的快速摄取
    • 用于精确检索的本体结构
  • 开箱即用的RAG管道
    • DocumentRAG
    • GraphRAG
    • OntologyRAG
  • 用于探索上下文的3D GraphViz可视化
  • 完整的智能体系统
    • 单智能体
    • 多智能体
    • MCP集成
  • 随处运行
    • 使用Docker本地部署
    • 使用Kubernetes云端部署
  • 支持所有主流大语言模型
    • API支持:Anthropic, Cohere, Gemini, Mistral, OpenAI等
    • 模型推理:vLLM, Ollama, TGI, LM Studio, Llamafiles
  • 开发者友好

无需API密钥

你是否经常克隆一个代码库后,打开 .env.example 文件,却发现需要配置数十个第三方依赖的API密钥才能使服务运行?在TrustGraph中,只有以下3类情况可能需要API密钥:

  • 第三方LLM服务,如Anthropic、Cohere、Gemini、Mistral、OpenAI等。
  • 第三方OCR服务,如Mistral OCR。
  • 您自己设置的 TrustGraph API网关的API密钥。

除此之外,一切均已内置。

  • 基于 Cassandra 的托管多模型存储
  • 基于 Qdrant 的托管向量嵌入存储
  • 基于 Garage(S3兼容)的托管文件和对象存储
  • 基于 Pulsar 的托管高速发布/订阅消息架构
  • 基于 vLLMTGIOllamaLM StudioLlamafiles 的完整开源LLM推理栈

你是否经常克隆一个代码库后,打开 .env.example 文件,却发现需要配置数十个第三方依赖的API密钥才能使服务运行?在TrustGraph中,只有以下3类情况可能需要API密钥:

  • 第三方LLM服务,如Anthropic、Cohere、Gemini、Mistral、OpenAI等。
  • 第三方OCR服务,如Mistral OCR。
  • 您自己设置的 TrustGraph API网关的API密钥。

除此之外,一切均已内置。

  • 基于 Cassandra 的托管多模型存储
  • 基于 Qdrant 的托管向量嵌入存储
  • 基于 Garage(S3兼容)的托管文件和对象存储
  • 基于 Pulsar 的托管高速发布/订阅消息架构
  • 基于 vLLMTGIOllamaLM StudioLlamafiles 的完整开源LLM推理栈

快速开始

除非你想从源码构建,否则无需克隆此代码库。TrustGraph是一个完全容器化的应用程序,以一组Docker容器的形式部署。要通过命令行配置TrustGraph,请运行:

npx @trustgraph/config

配置过程将生成一个应用配置,可以使用Docker、Podman或Minikube在本地运行。该过程将输出:

  • deploy.zip,其中包含用于Docker/Podman的 docker-compose.yaml 文件或用于Kubernetes的 resources.yaml 文件。
  • 部署说明文件 INSTALLATION.md

如需基于浏览器的配置,请尝试 配置终端

除非你想从源码构建,否则无需克隆此代码库。TrustGraph是一个完全容器化的应用程序,以一组Docker容器的形式部署。要通过命令行配置TrustGraph,请运行:

npx @trustgraph/config

配置过程将生成一个应用配置,可以使用Docker、Podman或Minikube在本地运行。该过程将输出:

  • deploy.zip,其中包含用于Docker/Podman的 docker-compose.yaml 文件或用于Kubernetes的 resources.yaml 文件。
  • 部署说明文件 INSTALLATION.md

如需基于浏览器的配置,请尝试 配置终端

工作台

工作台 提供了TrustGraph所有主要功能的工具。默认情况下,工作台 运行在端口 8888

  • 向量搜索:搜索已安装的知识库。
  • 智能体、GraphRAG和LLM聊天:用于智能体、GraphRAG查询或直接与LLM交互的聊天界面。
  • 关系分析:分析已安装知识库中的深层关系。
  • 图谱可视化器:已安装知识库的3D GraphViz视图。
  • :用于安装知识库的暂存区。
  • 流程类:工作流预设配置。
  • 流程:创建自定义工作流并在运行时调整LLM参数。
  • 知识核心:管理可重用的知识库。
  • 提示词:在运行时管理和调整提示词。
  • 模式:为结构化数据知识库定义自定义模式。
  • 本体:为非结构化数据知识库定义自定义本体。
  • 智能体工具:通过集合、知识核心、MCP连接和工具组定义工具。
  • MCP工具:连接到MCP服务器。

工作台 提供了TrustGraph所有主要功能的工具。默认情况下,工作台 运行在端口 8888

  • 向量搜索:搜索已安装的知识库。
  • 智能体、GraphRAG和LLM聊天:用于智能体、GraphRAG查询或直接与LLM交互的聊天界面。
  • 关系分析:分析已安装知识库中的深层关系。
  • 图谱可视化器:已安装知识库的3D GraphViz视图。
  • :用于安装知识库的暂存区。
  • 流程类:工作流预设配置。
  • 流程:创建自定义工作流并在运行时调整LLM参数。
  • 知识核心:管理可重用的知识库。
  • 提示词:在运行时管理和调整提示词。
  • 模式:为结构化数据知识库定义自定义模式。
  • 本体:为非结构化数据知识库定义自定义本体。
  • 智能体工具:通过集合、知识核心、MCP连接和工具组定义工具。
  • MCP工具:连接到MCP服务器。

上下文核心

上下文核心是一个可移植、版本化的上下文包,您可以在项目和环境中传递、在生产环境中固定,并在多个智能体之间复用。它将“智能体需要知道的东西”(结构化知识 + 嵌入 + 证据 + 策略)打包成一个单一的工件,从而使您可以像对待代码一样对待上下文:构建、测试、版本控制、推广和回滚。TrustGraph正是为支持这种端到端的上下文工程和编排工作流而构建的。

上下文核心是一个可移植、版本化的上下文包,您可以在项目和环境中传递、在生产环境中固定,并在多个智能体之间复用。它将“智能体需要知道的东西”(结构化知识 + 嵌入 + 证据 + 策略)打包成一个单一的工件,从而使您可以像对待代码一样对待上下文:构建、测试、版本控制、推广和回滚。TrustGraph正是为支持这种端到端的上下文工程和编排工作流而构建的。

上下文核心包含什么

一个上下文核心通常包含:

  • 本体(您的领域模式)和映射关系。
  • 上下文图谱(实体、关系、支持证据)。
  • 嵌入 / 向量索引,用于快速语义入口点查找。
  • 源清单 + 溯源信息(事实的来源、时间以及推导方式)。
  • 检索策略(遍历规则、新鲜度、权威性排名)。

一个上下文核心通常包含:

  • 本体(您的领域模式)和映射关系。
  • 上下文图谱(实体、关系、支持证据)。
  • 嵌入 / 向量索引,用于快速语义入口点查找。
  • 源清单 + 溯源信息(事实的来源、时间以及推导方式)。
  • 检索策略(遍历规则、新鲜度、权威性排名)。

技术栈与组件对比

TrustGraph提供灵活的组件选择,以优化智能体工作流。其技术栈覆盖了从模型服务到基础设施的各个层面。

组件类别 具体技术/服务 关键特性/说明
LLM API 服务 Anthropic, AWS Bedrock, AzureAI, AzureOpenAI, Cohere, Google AI Studio, Google VertexAI, Mistral, OpenAI 支持主流商业及云服务商API
LLM 推理与编排 LM Studio, Llamafiles, Ollama, TGI, vLLM 开源模型本地推理与高效服务化
多模型存储 Apache Cassandra 高可用、可扩展的NoSQL数据库
向量数据库 Qdrant 高性能向量相似性搜索
文件与对象存储 Garage S3兼容的轻量级分布式存储
可观测性 Prometheus, Grafana, Loki 指标监控、可视化面板与日志聚合
数据流处理 Apache Pulsar 高性能发布/订阅消息系统
云平台支持 AWS, Azure, Google Cloud, OVHcloud, Scaleway 多云部署兼容性

TrustGraph提供灵活的组件选择,以优化智能体工作流。其技术栈覆盖了从模型服务到基础设施的各个层面。

组件类别 具体技术/服务 关键特性/说明
LLM API 服务 Anthropic, AWS Bedrock, AzureAI, AzureOpenAI, Cohere, Google AI Studio, Google VertexAI, Mistral, OpenAI 支持主流商业及云服务商API
LLM 推理与编排 LM Studio, Llamafiles, Ollama, TGI, vLLM 开源模型本地推理与高效服务化
多模型存储 Apache Cassandra 高可用、可扩展的NoSQL数据库
向量数据库 Qdrant 高性能向量相似性搜索
文件与对象存储 Garage S3兼容的轻量级分布式存储
可观测性 Prometheus, Grafana, Loki 指标监控、可视化面板与日志聚合
数据流处理 Apache Pulsar 高性能发布/订阅消息系统
云平台支持 AWS, Azure, Google Cloud, OVHcloud, Scaleway 多云部署兼容性

可观测性与遥测

平台运行后,可通过以下地址访问Grafana仪表板:

http://localhost:3000

默认凭据为:

user: admin
password: admin

默认的Grafana仪表板跟踪以下指标:

  • LLM延迟
  • 错误率
  • 服务请求速率
  • 队列积压
  • 分块直方图
  • 按服务划分的错误来源
  • 速率限制事件
  • 各服务的CPU使用率
  • 各服务的内存使用率
  • 已部署的模型
  • 令牌吞吐量(令牌/秒)
  • 成本吞吐量(成本/秒)

平台运行后,可通过以下地址访问Grafana仪表板:

http://localhost:3000

默认凭据为:

user: admin
password: admin

默认的Grafana仪表板跟踪以下指标:

  • LLM延迟
  • 错误率
  • 服务请求速率
  • 队列积压
  • 分块直方图
  • 按服务划分的错误来源
  • 速率限制事件
  • 各服务的CPU使用率
  • 各服务的内存使用率
  • 已部署的模型
  • 令牌吞吐量(令牌/秒)
  • 成本吞吐量(成本/秒)

总结

TrustGraph通过其图原生的架构、内置的多模型基础设施以及对“上下文核心”这一概念的工程化实践,为构建需要深度理解和推理的下一代AI应用提供了强大的基础平台。它将开发者从繁琐的API密钥管理和基础设施集成中解放出来,专注于上下文本身的构建、管理和应用,代表了上下文工程领域的一个重要发展方向。

TrustGraph通过其图原生的架构、内置的多模型基础设施以及对“上下文

常见问题(FAQ)

TrustGraph平台的核心能力有哪些?

TrustGraph提供多模型/多模态数据库系统、自动化数据摄取、开箱即用的RAG管道(DocumentRAG/GraphRAG/OntologyRAG)、3D可视化、完整智能体系统、支持本地或云端部署,并兼容所有主流大语言模型。

使用TrustGraph需要配置哪些API密钥?

仅需在三种情况下配置:使用第三方LLM服务(如OpenAI)、第三方OCR服务(如Mistral OCR),或您自己设置的TrustGraph API网关密钥。平台内置存储、向量、文件、消息等基础设施,无需额外密钥。

如何快速开始使用TrustGraph?

TrustGraph是完全容器化应用,无需克隆源码。通过运行 npx @trustgraph/config 命令行工具进行配置,该过程将生成应用配置,支持使用Docker本地部署或Kubernetes云端部署。

← 返回文章列表
分享到:微博

版权与免责声明:本文仅用于信息分享与交流,不构成任何形式的法律、投资、医疗或其他专业建议,也不构成对任何结果的承诺或保证。

文中提及的商标、品牌、Logo、产品名称及相关图片/素材,其权利归各自合法权利人所有。本站内容可能基于公开资料整理,亦可能使用 AI 辅助生成或润色;我们尽力确保准确与合规,但不保证完整性、时效性与适用性,请读者自行甄别并以官方信息为准。

若本文内容或素材涉嫌侵权、隐私不当或存在错误,请相关权利人/当事人联系本站,我们将及时核实并采取删除、修正或下架等处理措施。 也请勿在评论或联系信息中提交身份证号、手机号、住址等个人敏感信息。