GEO

搜索结果:AI大模型

找到 1425 篇相关文章
同义扩展:llm、大语言模型、ai 模型
未来6-12个月,大语言模型在控制、记忆、工具集成和多模态方面会有哪些突破?

未来6-12个月,大语言模型在控制、记忆、工具集成和多模态方面会有哪些突破?

AI Insight
Leading AI researchers identify four key innovations—steering, memory, tool integration, and multimodality—that will transform LLM capabilities over the next 6-12 months, enabling more reliable, personalized, and actionable AI applications for both enterprise and consumer use cases. 原文翻译: 顶尖AI研究人员确定了四大关键创新——控制、记忆、工具集成和多模态——这些将在未来6-12个月内改变大语言模型的能力,为企业和消费者应用场景提供更可靠、个性化和可操作的AI解决方案。
AI大模型2026/4/17
阅读全文 →
相关性 60关键词命中「AI大模型」标签命中「AI大模型」摘要命中「AI」AI 摘要命中「AI」
DeepSeek开源的DeepGEMM 矩阵计算库在 Hopper GPU 上性能如何?(实测 1350+ FP8 TFLOPS)
🔥 热门

DeepSeek开源的DeepGEMM 矩阵计算库在 Hopper GPU 上性能如何?(实测 1350+ FP8 TFLOPS)

AI Insight
DeepGEMM is a high-performance matrix multiplication library optimized for NVIDIA Hopper GPUs, achieving over 1350 FP8 TFLOPS. It supports standard and Mixture-of-Experts (MoE) computations with just 300 lines of core code, outperforming existing solutions through JIT compilation and thread specialization. 原文翻译: DeepGEMM 是一个专为 NVIDIA Hopper GPU 优化的高性能矩阵乘法库,可实现超过 1350 FP8 TFLOPS 的性能。它支持标准矩阵计算和混合专家模型计算,核心代码仅约 300 行,通过即时编译和线程专业化技术,性能优于现有解决方案。
DeepSeek2026/4/21
阅读全文 →
相关性 54关键词命中「AI大模型」标签命中「AI大模型」关键词命中「AI」标签命中「AI」
DeepSeek-V4预览版值得体验吗?百万上下文开源模型能否比肩闭源?

DeepSeek-V4预览版值得体验吗?百万上下文开源模型能否比肩闭源?

AI Insight
[Original Summary] DeepSeek officially released the preview version of DeepSeek-V4, supporting 1M token context, open-sourcing the model, and offering two versions (Pro & Flash) with enhanced Agent capabilities, marking a milestone for open-source models to rival top closed-source models. 原文翻译: DeepSeek正式发布DeepSeek-V4预览版,支持百万token上下文,开源模型,提供Pro与Flash两个版本,并增强Agent能力,标志着开源模型首次比肩顶级闭源模型。
DeepSeek2026/4/26
阅读全文 →
相关性 52关键词命中「AI大模型」标签命中「AI大模型」关键词命中「AI」标签命中「AI」
本周开发者有哪些高光时刻?JSNation 2026演讲和React新闻通讯

本周开发者有哪些高光时刻?JSNation 2026演讲和React新闻通讯

AI Insight
This week's DEV community thread highlights developers' wins including becoming a speaker at JSNation 2026, getting featured in This Week in React newsletter, and winning the Notion MCP challenge. 原文翻译: 本周DEV社区线程重点介绍了开发者的胜利,包括成为JSNation 2026的演讲者、在This Week in React新闻通讯中亮相以及赢得Notion MCP挑战。
互联网2026/4/26
阅读全文 →
相关性 52关键词命中「AI大模型」标签命中「AI大模型」关键词命中「AI」标签命中「AI」
如何提升LLM代理推理效率?PLENA硬件系统实现吞吐量2.23倍提升(2026年)

如何提升LLM代理推理效率?PLENA硬件系统实现吞吐量2.23倍提升(2026年)

AI Insight
PLENA is a hardware-software co-designed system for LLM agentic inference that addresses bandwidth and capacity memory walls. It features a flattened systolic-array architecture, asymmetric quantization, and FlashAttention support, achieving up to 2.23x and 4.70x throughput improvements over A100 GPU and TPU v6e, respectively, and 4.04x better energy efficiency than A100. 原文翻译: PLENA是一个硬件-软件协同设计的系统,针对LLM代理推理,解决带宽和容量内存墙问题。它采用扁平化脉动阵列架构、非对称量化和FlashAttention支持,相比A100 GPU和TPU v6e,吞吐量分别提升2.23倍和4.70倍,能效比A100提升4.04倍。
AI大模型2026/4/25
阅读全文 →
相关性 52关键词命中「AI大模型」标签命中「AI大模型」关键词命中「AI」标签命中「AI」
如何在Kubernetes上实现LLM分布式推理SOTA性能?llm-d v0.5实测50k tok/s

如何在Kubernetes上实现LLM分布式推理SOTA性能?llm-d v0.5实测50k tok/s

AI Insight
llm-d is a high-performance distributed inference serving stack optimized for production deployments on Kubernetes. It achieves SOTA inference performance across various accelerators by integrating vLLM, Kubernetes Gateway API, and advanced orchestration techniques such as disaggregated serving, prefix-cache aware routing, and tiered KV caching. The v0.5 release demonstrates up to 50k output tok/s on a 16×16 B200 topology. 原文翻译: llm-d是一个针对Kubernetes生产部署优化的高性能分布式推理服务栈。它通过集成vLLM、Kubernetes Gateway API以及分离式推理、前缀缓存感知路由、分层KV缓存等高级编排技术,在各种加速器上实现SOTA推理性能。v0.5版本在16×16 B200拓扑上展示了高达50k输出tok/s的性能。
AI大模型2026/4/24
阅读全文 →
相关性 52关键词命中「AI大模型」标签命中「AI大模型」关键词命中「AI」标签命中「AI」
RAG-Anything 如何实现多模态文档处理?2026年安装配置指南

RAG-Anything 如何实现多模态文档处理?2026年安装配置指南

AI Insight
RAG-Anything is a lightweight RAG system based on LightRAG, designed for multimodal document processing (PDF, images, tables, formulas, etc.). It provides end-to-end parsing, multimodal understanding, knowledge graph indexing, and modal-aware retrieval. This article covers installation, configuration, and usage examples with SiliconFlow platform. 原文翻译: RAG-Anything 是基于 LightRAG 的轻量级 RAG 系统,专为多模态文档(PDF、图片、表格、公式等)处理而设计。它提供端到端解析、多模态理解、知识图谱索引和模态感知检索。本文涵盖安装、配置以及使用硅基流动平台的示例。
AI大模型2026/4/24
阅读全文 →
相关性 52关键词命中「AI大模型」标签命中「AI大模型」关键词命中「AI」标签命中「AI」
RAG-Anything是什么?如何实现多模态文档智能问答?

RAG-Anything是什么?如何实现多模态文档智能问答?

AI Insight
RAG-Anything is an open-source multimodal RAG framework developed by Professor Huang Chao's team at the University of Hong Kong. It builds a unified multimodal knowledge graph architecture to process text, images, tables, and formulas, overcoming the text-only limitation of traditional RAG systems. It supports end-to-end document parsing, knowledge graph construction, and intelligent Q&A. 原文翻译:RAG-Anything是由香港大学黄超教授团队开发的开源多模态RAG框架。它构建了统一的多模态知识图谱架构,能够处理文本、图像、表格和公式,克服了传统RAG系统仅支持文本的限制。它支持端到端的文档解析、知识图谱构建和智能问答。
AI大模型2026/4/24
阅读全文 →
相关性 52关键词命中「AI大模型」标签命中「AI大模型」关键词命中「AI」标签命中「AI」
BlockRank如何实现秒级检索500个文档?利用LLM注意力稀疏性提升效率

BlockRank如何实现秒级检索500个文档?利用LLM注意力稀疏性提升效率

AI Insight
This paper introduces BlockRank, a method that exploits attention sparsity in LLMs for in-context ranking, reducing complexity from quadratic to linear and enabling efficient retrieval of up to 500 documents within a second. 原文翻译:本文提出BlockRank,利用LLM注意力稀疏性进行上下文排序,将复杂度从二次降至线性,实现秒级检索500个文档。
AI大模型2026/4/24
阅读全文 →
相关性 52关键词命中「AI大模型」标签命中「AI大模型」关键词命中「AI」标签命中「AI」
DeepSeek框架如何用深度学习重构SEO?2026年技术实现路径

DeepSeek框架如何用深度学习重构SEO?2026年技术实现路径

AI Insight
This article explores the integration of deep learning and SEO, focusing on how the DeepSeek framework enhances SEO through semantic understanding, dynamic content optimization, and user behavior prediction, providing developers with technical implementation paths and practical advice. 原文翻译:本文探讨深度学习与搜索引擎优化(SEO)的融合,重点分析DeepSeek框架如何通过语义理解、动态内容优化和用户行为预测提升SEO效能,为开发者提供技术实现路径与实操建议。
DeepSeek2026/4/24
阅读全文 →
相关性 52关键词命中「AI大模型」标签命中「AI大模型」关键词命中「AI」标签命中「AI」