GEO

搜索结果:人工智能

找到 1354 篇相关文章
什么是RAG检索增强生成?2026年AI大模型优化技术详解

什么是RAG检索增强生成?2026年AI大模型优化技术详解

AI Insight
Retrieval-Augmented Generation (RAG) enhances large language models by allowing them to access external knowledge bases before generating responses, improving accuracy, relevance, and cost-effectiveness without retraining. 原文翻译: 检索增强生成(RAG)通过让大语言模型在生成响应前访问外部知识库来优化其输出,无需重新训练即可提高准确性、相关性和成本效益。
AI大模型2026/3/13
阅读全文 →
相关性 40标签命中「人工智能」正文包含「人工智能」标签命中「人工」正文包含「人工」
相关性 40标签命中「人工智能」正文包含「人工智能」标签命中「人工」正文包含「人工」
GEO优化如何重塑AI营销?2026年品牌连接新策略

GEO优化如何重塑AI营销?2026年品牌连接新策略

AI Insight
GEO (Generative Engine Optimization) is emerging as a key AI marketing strategy, focusing on optimizing brand knowledge assets and content structure to enhance visibility in AI-driven user interactions and search behaviors. 原文翻译: GEO(生成式引擎优化)正成为关键的AI营销策略,专注于优化品牌知识资产和内容结构,以提升在AI驱动的用户互动和搜索行为中的可见性。
GEO应用2026/3/13
阅读全文 →
相关性 40标签命中「人工智能」正文包含「人工智能」标签命中「人工」正文包含「人工」
DeepSeek V4 API调用Agent能力详解与应用场景
🔥 热门

DeepSeek V4 API调用Agent能力详解与应用场景

AI Insight
DeepSeek V4 系列于2026年4月发布,包括Pro(1.6T参数)和Flash(284B参数)两个版本,均支持1M tokens上下文。其Agent能力为开源最佳,在工具调用、长上下文记忆、思考模式、结构化输出、多模态理解和框架适配六大方面表现突出。API兼容OpenAI标准,支持Function Calling和思考模式(reasoning_effort参数)。最佳实践建议:复杂Agent任务使用思考模式+max强度、精确定义工具Schema、按场景选择Pro(质量优先)或Flash(成本优先)、合理规划token预算。典型应用包括智能编码、超长文档分析、企业知识库检索和跨系统自动化流程。
DeepSeek2026/4/24
阅读全文 →
相关性 38摘要命中「智能」正文包含「智能」最近30天发布
如何通过GEO提升内容在AI搜索中的可见性?(附实测数据)
📌 置顶

如何通过GEO提升内容在AI搜索中的可见性?(附实测数据)

AI Insight
This paper introduces Generative Engine Optimization (GEO), a black-box optimization framework to help content creators improve their visibility in generative engine responses. It proposes GEO-bench for evaluation and shows up to 40% visibility boost. The work is accepted at KDD 2024. 原文翻译:本文介绍了生成式引擎优化(GEO),这是一个黑盒优化框架,帮助内容创作者提高其在生成式引擎响应中的可见性。它提出了GEO-bench用于评估,并显示可见性提升高达40%。该工作被KDD 2024接收。
GEO2026/4/24
阅读全文 →
相关性 38正文包含「人工智能」正文包含「人工」正文包含「智能」最近30天发布
微信AI搜索集成DeepSeek-R1怎么用?2026年最新功能实测

微信AI搜索集成DeepSeek-R1怎么用?2026年最新功能实测

AI Insight
WeChat has begun testing an AI-powered search feature integrating the DeepSeek-R1 model, offering a more diverse and intelligent search experience. The feature is currently in limited testing, pulling data from public WeChat official accounts and other online content, without using private user data. 原文翻译:微信已开始测试集成DeepSeek-R1模型的AI搜索功能,提供更丰富、更智能的搜索体验。该功能目前处于有限测试阶段,从微信公众号和公开网络内容中提取数据,不使用用户隐私数据。
DeepSeek2026/4/24
阅读全文 →
相关性 36摘要命中「智能」正文包含「智能」最近30天发布
知识图谱是什么?2026年数据模型、查询语言与应用全解析

知识图谱是什么?2026年数据模型、查询语言与应用全解析

AI Insight
This paper provides a comprehensive introduction to knowledge graphs, covering data models, query languages, knowledge representation techniques, creation methods, and applications across both open and enterprise contexts. 原文翻译: 本文全面介绍了知识图谱,涵盖数据模型、查询语言、知识表示技术、创建方法以及在开放和企业环境中的应用。
GEO技术2026/3/22
阅读全文 →
相关性 34正文包含「人工智能」正文包含「人工」正文包含「智能」最近90天发布
DeepSeek SEO和AI GEO优化怎么做?2026年16步推理优化攻略

DeepSeek SEO和AI GEO优化怎么做?2026年16步推理优化攻略

AI Insight
This article provides a comprehensive guide on DeepSeek SEO and AI GEO optimization, covering 16 steps for AI reasoning optimization, 15 steps for GEO optimization, prompt types, and keyword strategies to improve brand ranking in AI search. 原文翻译:本文提供了DeepSeek SEO和AI GEO优化的全面指南,涵盖AI推理优化的16个步骤、GEO优化的15个步骤、提示词类型和关键词策略,以提升品牌在AI搜索中的排名。
GEO2026/4/24
阅读全文 →
相关性 18正文包含「智能」最近30天发布
Gemini国内如何使用?2026年免翻墙访问与实战指南

Gemini国内如何使用?2026年免翻墙访问与实战指南

AI Insight
This article provides a comprehensive 2026 guide for Chinese users to access and utilize Google's Gemini models, particularly Gemini 3 Pro, overcoming regional access barriers through platforms like n.myliang.cn. It covers practical applications in multimodal tasks, AI-assisted office work, programming, and SEO optimization. 原文翻译: 本文为国内用户提供了一份全面的2026年指南,介绍如何通过n.myliang.cn等平台访问和使用谷歌Gemini模型(特别是Gemini 3 Pro),以克服地域访问限制。内容涵盖多模态任务、AI辅助办公、编程和SEO优化等实际应用。
Gemini2026/3/30
阅读全文 →
相关性 18正文包含「智能」最近90天发布
如何提升LLM数学推理?2026年RFT拒绝采样微调深度解析

如何提升LLM数学推理?2026年RFT拒绝采样微调深度解析

AI Insight
This article analyzes the Rejection sampling Fine-Tuning (RFT) method for enhancing large language models' mathematical reasoning. It details a process where smaller models generate diverse reasoning paths, which are filtered for quality and diversity, then used to fine-tune a larger model (e.g., Llama2-70B). Key findings show RFT significantly improves accuracy over standard Supervised Fine-Tuning (SFT), especially for weaker models, by increasing the variety of unique reasoning paths in the training data. 原文翻译: 本文分析了用于增强大语言模型数学推理能力的拒绝采样微调(RFT)方法。它详细阐述了一个流程:使用小模型生成多样化的推理路径,经过质量和多样性筛选后,用于微调更大的模型(如Llama2-70B)。核心发现表明,通过增加训练数据中独特推理路径的多样性,RFT相比标准监督微调(SFT)能显著提升模型准确率,对于性能较弱的模型提升尤为明显。
AI大模型2026/3/17
阅读全文 →
相关性 18正文包含「人工」最近90天发布