AI技术选型

AI技术选型

岚迹(Lanjii)前后端分离企业级管理系统

岚迹(Lanjii)是一款基于 Spring Boot + Vue3 技术栈构建的现代化前后端分离企业级管理系统,遵循 MIT 开源协议,支持商用且无复杂依赖,开箱即用,可快速助力企业或个人搭建 CRM、OA、博客等各类 Web 后台系统,也适用于企业项目开发与个人学习实践。 一、核心技术栈 岚迹采用主流且稳定的技术组合,兼顾性能、扩展性与开发效率,具体技术栈如下: 技术类别 技术框架/工具 版本信息 核心作用 后端框架 Spring Boot 3.3.12(近期升级至 3.5.9) […]

AI技术选型

OpenBMB 与 UltraRAG 开源产品全解

一、OpenBMB 开源社区概述 OpenBMB(Open Lab for Big Model Base)是由清华大学自然语言处理实验室(THUNLP) 和面壁智能共同发起的大模型开源社区,致力于打造大规模预训练语言模型库与相关工具链,降低百亿级以上大模型的训练、微调与推理门槛,推动大模型生态标准化、普及化和实用化。 核心使命与定位 ● 构建大模型基础设施,加速大模型技术落地 ● 降低大模型使用门槛,让技术惠及更多开发者 ● 推动大模型开源社区建设,促进技术交流与创新 主要开源项目 ● MiniCPM系列:轻量级高性能大模型,适合端侧部署 ● Eurux系列:推理性能突出的开源大模型,被称为”理科状元” ● UltraRAG:基于MCP协议的低代码RAG框架(本文重点介绍) ● BMTools:大模型工具学习引擎,支持接入16000+真实API ● AgentCPM系列:端侧智能体模型,支持本地化深度调研与报告生成 二、UltraRAG 框架深度解析

AI技术选型

FlashMLA:DeepSeek开源的大模型推理加速核心引擎

FlashMLA(Multi-head Latent Attention Kernels)是由DeepSeek AI开发的高性能注意力计算内核库,专为英伟达Hopper架构GPU(H100/H800/H200/B200等)优化,旨在解决大模型推理中变长序列处理效率低的核心痛点,已在DeepSeek-V3和V3.2系列模型中大规模部署验证。 一、核心定位与价值 FlashMLA是大模型推理的”性能加速器”,专注于优化Transformer架构中的多头潜注意力(MLA) 计算,通过硬件级优化与算法创新,将高端GPU的算力与带宽利用率提升至极限,同时大幅降低显存占用,为大模型生产环境部署提供关键技术支撑。 二、核心功能 FlashMLA提供完整的注意力计算解决方案,覆盖大模型训练与推理全流程: 功能模块 具体实现 特点 稀疏注意力内核 1. 预填充阶段token级稀疏注意力2. 解码阶段token级稀疏注意力(支持FP8 KV缓存) 适配DeepSeek Sparse Attention

AI技术选型

Logto 轻量级 Auth0 替代品

Logto是Silverhand公司推出的现代开源身份认证与访问管理(CIAM/IAM)基础设施,核心价值在于以OIDC/OAuth 2.1/SAML为标准,为SaaS、AI应用等提供开箱即用的认证授权能力,兼顾快速集成与企业级安全,支持本地部署与完全自定义,同时提供云托管版本,可替代Auth0等商业方案。 核心功能 1.  认证与登录支持邮箱/短信无密码登录、社交登录(微信、Google、GitHub等30+)、企业SSO(SAML/OIDC)、MFA(TOTP/安全密钥/备用码)、邀请注册、账号绑定。 a.  开箱即用且高度可定制的认证UI,支持自定义CSS与流程,适配Web/SPA/移动端/M2M场景。 2.  授权与访问控制RBAC(用户/组织级)、JWT/不透明令牌校验、自定义令牌声明、API防护,适配多租户隔离需求。 a.  组织模板、成员邀请、按组织启用MFA,支持即时开通(JIT)与租户级登录体验定制。 3.  用户与合规管理用户模拟、创建/挂起/邀请、审计日志、用户迁移,支持数据隔离与全程TLS加密。 a.  符合SOC 2 Type II认证,内置数据加密与隐私保护机制,适配GDPR等合规要求。 4.  集成与生态30+框架SDK(React/Vue/Next.js/Flutter/Go/Python等),支持无代码集成与自定义连接器。 a.  兼容OIDC/OAuth 2.1/SAML,可对接主流IdP(Azure AD/Okta/Google Workspace)与社交平台。 适用场景 场景 核心价值

AI技术选型

Tambo 面向 React 的开源生成式UI SDK与AI编排框架

Tambo(全称Tambo AI)是面向React的开源生成式UI SDK与AI编排框架,核心是让大模型根据自然语言对话自动渲染匹配的React组件,快速构建AI驱动的自适应交互界面,支持云端托管与本地自部署,适合快速开发AI Copilot、智能BI、自动化表单等应用。以下从核心定位、关键特性、技术架构、适用场景、部署方式、快速上手等方面展开介绍: 核心定位 ● 本质是React的生成式UI SDK与AI编排层:开发者注册组件并定义描述与属性Schema,AI根据用户自然语言指令,自动选择、参数化并渲染组件,实现“说一句话就生成界面”的体验。 ● 核心价值:打破“一刀切”的界面范式,让应用自适应不同用户需求,同时降低复杂交互的开发成本,聚焦安全与可控边界。 关键特性 特性 说明 生成式组件系统 支持两类组件:生成式组件(响应消息一次性渲染,如图表)、可交互组件(持续交互并保留状态,如表单),均通过Schema约束参数安全 流式UI渲染 实时流式传输AI生成的React组件,配合钩子提升动态体验,支持消息线程历史自动管理 工具调用框架 注册自定义工具/函数并定义Schema,AI可智能调用执行操作(如数据查询、第三方API对接),类似ChatGPT插件机制 模型上下文协议(MCP) 无缝对接多模型与自建MCP服务器,支持分布式部署、大并发与灰度升级,适配工业级场景 内置基础设施

AI技术选型

一句话生成完整短剧,从剧本到成片全自动化

chatfire-AI与huobao-drama开源产品全解析 一、chatfire-AI组织概况 chatfire-AI(AI火宝)是一个专注于AI创意工具开发的开源社区,致力于降低AI应用门槛,让更多人能够利用AI技术进行内容创作。该组织在GitHub上拥有多个开源项目,核心产品包括huobao-drama(火宝短剧)、huobao-canvas(火宝无限画布)、nano-prompt-app等,其中火宝短剧是其最具影响力的项目,截至2026年1月已获得超过3.4k Stars,成为AI短剧生成领域的热门开源工具。 二、huobao-drama(火宝短剧)核心介绍 1. 项目定位 huobao-drama(火宝短剧)是chatfire-AI团队开发的一站式全栈AI短剧自动化生成平台,核心目标是实现”一句话生成完整短剧,从剧本到成片全自动化“,大幅降低短剧制作门槛,让个人创作者也能轻松打造专业级短剧内容。该项目支持Ollama本地部署,兼顾云端API与本地模型两种使用方式,满足不同用户的需求。 2. 技术架构 层级 技术选型 核心组件 后端 Go 1.23+ DDD领域驱动设计,支持多AI模型集成 前端 Vue3 +

Scroll to Top