LLM 大语言模型快速认识

大语言模型是什么?

  1. LLM = Large Language Model 大语言模型,根据上文,不断预测下一个 Token,循环续写文本
    1. 本质是:用海量文本数据训练出来的、能理解和生成人类语言的巨型神经网络
    2. 可以把它理解成:读过几乎全网文字、会说话、会写作、会推理的超级 AI
  2. LLM 核心能力:
    1. 聊天对话:问答、闲聊、心理咨询式对话;
    2. 内容生成:写文案、邮件、小说、剧本、周报;
    3. 翻译:多语言互译;
    4. 总结提炼:长文变摘要、视频转文字总结;
    5. 逻辑推理:解数学题、写代码、排 bug、做规划;
    6. 代码能力:写 Python/Java/JS/TS,解释代码,优化代码;
  3. LLM 关键特点:
    1. 参数巨大:百亿、千亿级别参数 (所以叫 “大” 模型)
    2. 上下文窗口:能记住前面几千~几万字的内容;
    3. 涌现能力:模型大到一定程度,突然会推理、会举一反三;
    4. 泛化强:没专门教过的任务也能做 (零样本 / 小样本学习)
  4. 常见知名 LLM
    1. 开源:LlamaMistralQwen (通义千问)ChatGLMBaichuan
    2. 闭源商用:GPT-4oClaude 3Gemini、文心一言、豆包;

什么是 Token、词表(Vocab)、上下文长度(Context Window)

  1. 什么是 Token

    1. Token = 模型处理文字的最小单位,模型不直接认识汉字 / 英文单词,它只认识 Token
      • 英文:常见单词 = 1 个 Token
      • 中文:1 个汉字 ≈ 1 个 Token (不同模型略有差异)
      • 标点、空格、换行也算 Token
    2. 作用:把人类文字 → 切成模型能处理的片段;
  2. 什么是词表 (Vocab)

    1. 词表 = 模型认识的所有 Token 的集合,就像一本字典:
      • 英文模型词典里大多是英文词根、单词;
      • 多语言模型会加入汉字、日文、韩文等;
    2. 模型只能生成词表里有的 Token
    3. 不在词表里的字会变成未知符号 <unk>
  3. 什么是上下文长度 (Context Window)

    1. 上下文长度 = 模型一次性能 “记住” 的最大 Token 数量,比如:
      • 4k = 最多记住约 3000 汉字;
      • 8k = 约 6000 汉字;
      • 128k = 约 10 万 字;
    2. 超过长度:前面内容会被遗忘或直接报错无法处理;

LLM 大语言模型工作流程

  1. 用户输入:你发给模型一段文字:问题、对话、指令等;

  2. 构建完整上下文:把以下内容拼在一起,形成一段完整文本,送给模型;

    1. 系统提示 (system prompt)
    2. 历史对话 (之前的问与答)
    3. 当前用户问题;
  3. Token 分词(Tokenizer):把文字切成模型能处理的最小单位 Token

    1. 英文:单词 / 词根;
    2. 中文:汉字 / 词语片段;
    3. 标点、空格、换行也算 Token
  4. 检查上下文长度:如果 Token 总数超过模型上限 (如 4k、8k、128k) → 前面内容会被截断或遗忘;

  5. 转向量 Embedding:把每个 Token 变成一串数字向量 → 模型只认识数字,不认识文字;

  6. Transformer 网络推理(核心计算)

    1. 模型做两件关键事情:
      • 自注意力机制:找出哪些词和哪些词相关,理解语义关系;
      • 多层神经网络计算:根据上文,预测下一个 Token 的概率分布;
    2. 最终输出:一个长长的概率表,每个可能的 Token 都有一个概率;
  7. 根据采样策略:生成下一个 Token:根据设置选择一个 Token,一次只生成一个 Token

    1. 温度 temperature:越高越随机,越低越确定;
    2. Top-k / Top-p:从概率高的里面选;
    3. Greedy:直接选概率最大的;
  8. 把新 Token 加入上文:刚刚生成的 Token 拼到原文末尾 → 形成新的上下文;

  9. 循环重复:再次执行:分词 → 编码 → 推理 → 预测下一个 Token,不断逐字生成回答;

  10. 停止生成:满足任一条件就停:

    1. 生成结束标记 <|endoftext|>
    2. 达到最大长度;
    3. 遇到停止词 (如句号、换行)
  11. 还原成自然语言:把 Token 序列转回正常文字,做简单排版;

  12. 返回结果给用户:你看到的回答就出现了;

模型训练-从随机到智能

  • 大模型是怎么从 “完全随机” 一步步练成 “智能” 的?

  • 模型刚出生时是完全 “弱智” 的;

    • 所有参数 (几百亿个数字) 都是随机初始化的;
    • 给它一句话,它预测下一个 Token 完全是乱猜;
    • 输出就是一堆乱七八糟的字符:fjkds#@%&*;
    • 这时候它什么都不会;
  • 大模型的智能,就是 “把下一个 Token 猜得越来越准” 练出来的;

  1. 第一步:预训练 Pre-training —— 学会 “语言本身”

    1. 目标:让模型学会:语法、常识、逻辑、世界知识;
    2. 训练方式 (核心就一件事):给模型看海量文本:书籍、网页、文章、小说……,然后做无监督预测任务 我今天去超市买了一瓶____,遮住最后一个 Token,让模型猜下一个是什么;
    3. 训练过程:
      • 模型乱猜;
      • 计算损失函数 Loss:猜得越错,Loss 越大;
      • 用反向传播 (BP) 微调所有参数,让下一次猜得准一点;
      • 重复几十亿次;
    4. 学到了什么:
      • 模型会说人话了,但不会听指令;
      • 你问它问题,它可能顺着续写,不回答;
  2. 第二步:有监督微调 SFT —— 学会 “听人话、答问题”

    1. 目标:让模型从 “会续写” 变成 “会对话、会回答问题”
    2. 数据形式:给它大量 <指令,回答> 对,例如:
      • 问:1+1 等于几,答:2;
      • 问:写一首诗,答:……;
    3. 训练方式:继续预测下一个 Token,但这次只学 “正确回答” 的模式;
    4. 结果:
      • 模型现在:能听懂指令、能问答、能写东西、能对话;
      • 但可能:乱编事实、语气生硬、偶尔有害内容;
  3. 第三步:人类对齐 Alignment —— 变安全、变听话、变有用

    1. 主流方法:RLHF (基于人类反馈的强化学习)
    2. 步骤:
      • 人类标注:给模型多个回答打分,哪个好、哪个坏、哪个安全;
      • 训练奖励模型 RM:学会给回答打分;
      • 强化学习 PPO:让模型不断生成回答 → 奖励模型打分 → 调整参数往高分方向走;
    3. 结果模型变得:更安全、更有用、更符合人类偏好、更少胡说八道 (但不能完全杜绝)
  4. 最终:一个看起来 “智能” 的模型诞生

    1. 它不是真的有意识,而是经过海量数据训练后,极其擅长预测下一个 Token
    2. 因为预测得足够准,所以表现得像:理解、思考、会推理、有知识;

为什么有些模型不支持中文 / 中文很差?

  1. 核心就 4 个原因,按重要程度排序:

    1. 训练数据里几乎没有中文:很多国外模型 (原版 Llama、Pythia 等) 训练语料 99% 是英文,没见过中文,自然不会说;
    2. 词表里中文很少 / 没有:模型的 “字典” 里没收录汉字,要么乱切,要么直接变成 <unk> 未知字符;
    3. 分词器(Tokenizer)不针对中文优化:英文分词器切中文时:一个汉字切成 2~3Token,浪费上下文长度,语义理解混乱;
    4. 中文和英文结构差异太大
      • 中文:无空格、表意、语法灵活;
      • 英文:拼音文字、空格分隔,只学英文的模型无法自动泛化到中文;
  2. 有些模型 “支持中文”,但依然很烂,为什么?

    1. 只是用中文文本继续训练 (继续预训练),但量不够,效果会提升,但逻辑弱、容易胡说;
    2. 只做了中文指令微调 (SFT),基座依然英文,能回答简单问题,复杂推理直接崩;
    3. 中文数据质量差,网络爬虫、低质量小说、重复垃圾多→ 模型学到错误语法、奇怪表达、逻辑混乱;
  3. 快速判断一个模型中文好不好:

    1. 看这 4 点即可:
      • 官方是否明确说 支持中文 / 多语言;
      • 词表大小、是否专门优化中文;
      • 训练数据是否包含高质量中文;
      • 是否有中文对话微调 (如 Alpaca 中文、ShareGPT 中文语料)
    2. 典型例子:
      • ✅ 强中文:QwenChatGLMBaichuanLlama 2 中文微调版
      • ❌ 弱 / 无中文:原版 Llama 1、各种英文小开源模型;

常见误区(必看)

  1. ❌ 不是万能神,会胡说八道 (幻觉)

  2. ❌ 没有实时联网知识 (除非插件 / 搜索增强)

  3. ❌ 没有自我意识,不会真的 “思考”

  4. ✅ 只是强大的文字概率预测机器;

LLM 在企业中的价值与市场需求

LLM 在企业中的核心价值(可量化)

  1. 效率革命:大幅压缩人力与时间成本

    1. 办公自动化:自动写邮件、会议纪要、周报、合同初稿、财报摘要,效率提升 5–10 倍;
    2. 客服 / 售后:7×24 小时智能问答、工单自动处理、情绪安抚,人力成本降低 40–70%;
    3. 研发 / 代码:自动生成代码、单元测试、注释、Bug 定位,开发周期缩短 30–50%;
    4. 合规 / 法务:合同审查、法规比对、风险点提取,审查时间从天级缩至分钟级;
  2. 成本优化:替代重复性劳动,降低总体成本

    1. 企业运营成本平均降低 30–55%;
    2. 知识检索 / 分析:从 “人找资料” 到 “AI 秒答”,知识工作耗时减少 60%+;
    3. 私有化部署:TCO 降低 40–60%,数据不出内网、安全可控;
  3. 决策升级:从经验驱动 → 数据智能驱动

    1. 跨系统数据分析:自然语言提问 → 自动拉取 CRM/ERP/OA 数据 → 生成分析报告;
    2. 市场 / 竞品洞察:自动监控新闻、研报、招聘、专利,提炼战略信号;
    3. 风险预警:金融风控、异常交易、舆情风险,响应从秒级缩至毫秒级;
  4. 体验与营收:规模化个性化,提升转化与留存

    1. 营销 / 内容:自动生成文案、海报描述、直播话术、私域话术,转化率提升 20–40%;
    2. 个性化服务:百万用户规模下 “一对一” 推荐、定制方案,留存 / 复购提升 30%+;
    3. 产品创新:智能助手、智能搜索、智能诊断,形成差异化竞争力;
  5. 知识资产化:沉淀企业私有知识

    1. 把文档、手册、FAQ、历史案例变成可问答、可推理的知识库;
    2. 新员工培训:AI 导师、模拟问答、随问随答,上手周期缩短 50%;
  6. 安全与合规:数据可控、留痕可审计

    1. 私有化部署:数据不出企业边界,避免泄露风险;
    2. 合规审计:自动记录 AI 交互、生成、决策全链路,满足监管要求;

主流行业落地场景(2026 真实应用)

  1. 金融

    1. 智能风控、反欺诈、贷款审批自动化、ESG 合规、研报摘要;
    2. 案例:信用卡欺诈检测 3 秒 → 80 毫秒,误报率 -42%
  2. 制造 / 工业

    1. 设备故障诊断、生产排程(自然语言交互)、工艺优化、质检报告;
    2. 案例:研发周期 -20%,运维人力-68%
  3. 零售 / 电商

    1. 智能导购、评论分析、退货自动化、选品 / 定价建议、直播文案优化;
    2. 案例:退货处理 4 小时 → 15 分钟;
  4. 政企 / 法律

    1. 公文写作、政策解读、信访智能应答、合同审查、合规检查;
  5. 互联网 / 科技

    1. 代码生成、测试自动化、客服机器人、内容创作、用户画像分析;
  6. 医疗 / 教育

    1. 病历摘要、医学文献解读、智能问诊、个性化教案、作业批改;

2026 企业市场需求(规模与趋势)

  1. 市场规模(2026)

    1. 全球:大模型市场 8720 亿美元,企业级占 74.3%;
    2. 中国:大模型市场超 700 亿元,年增速 40%+;
    3. 企业渗透率:60%+ 已探索 / 部署,8 万+ 企业已落地;
  2. 企业需求五大趋势(2026 核心)

    1. 从通用 → 垂直专用行业大模型 (金融 / 制造 / 医疗 / 法律) 成为主流,专业深度 > 通用广度;
    2. 从云端 API → 私有化部署金融、政企、制造优先本地 / 私有云,安全可控 > 便捷;
    3. 从聊天 → 智能体 (Agent) 需求从 “问答” 升级为端到端任务执行:自动流程、多步骤决策、系统联动;
    4. 从文本 → 多模态文本 + 图像 + 音频 + 视频 + 表格,全模态理解与生成;
    5. 从大参数 → 高效低成本 MoE 架构、小而精垂直模型、推理优化,性价比优先;
  3. 企业采购优先级(2026)

    1. 安全可控 (数据不出域、可审计、合规)
    2. 垂直适配 (懂行业术语、业务流程)
    3. 低成本易集成 (API / 低代码 / 嵌入现有系统)
    4. 稳定可靠 (低幻觉、高准确率、高可用)
    5. 可扩展 (支持 Agent、多模态、长期记忆)

大模型工程师:为什么职场竞争力极强?

  1. 供需极度失衡(2026)

    1. AI 岗位同比 +12 倍,大模型占 AI 招聘 45%;
    2. 供需比 ≈ 0.39 (1 个候选人≈2.5 个岗位)
    3. 企业从 “要不要 AI” 变成 “抢大模型人才”
  2. 不可替代性强

    1. 门槛高:数学 + 算法 + 工程 + 业务 复合能力;
    2. 技术迭代快:持续学习、快速落地,越资深越值钱;
    3. 直接创造价值:降本、提效、增收 可量化;
  3. 职业天花板极高

    1. 技术线:工程师 → 技术负责人 → 首席架构师 → 合伙人;
    2. 产品线:AI 产品经理 → 业务线负责人 → 创业;
    3. 专家线:垂直领域专家 → 顾问 → 学术 / 开源领袖;

前端开发可转型的热门岗位(2026 最真实方向)

岗位方向 难度 核心工作内容 所需技能(前端优势 + 新增) 薪资溢价 适合人群
AI 前端工程师 AI 对话界面、Chat 面板、流式输出、AI 工作台 Vue/React/TS + LLM API + WebSocket +20%~40% 不想丢前端本行,想快速转型
AIGC 产品前端 文生图 / AI 视频 / 设计工具类交互界面 前端基础 + 多模态展示 + 富交互 +20%~40% 喜欢做体验、创意类产品界面
AI 低代码开发 AI 辅助页面生成、可视化编排、表单搭建 低代码平台 + AI 指令生成 +15%~30% 做过低代码、中台、后台系统
大模型应用开发工程师 ⭐⭐ RAG 企业知识库、AI 客服、Prompt 工程、应用落地 前端 / Node + LangChain/RAG + API 服务 +50%~100% 想脱离纯界面,做 AI 核心应用
AI 全栈工程师 ⭐⭐ 前端 + 接口服务 + AI 链路串联、独立交付项目 前端 + Node / 服务端 + 数据库 + AI 调用 +40%~80% 能独立做项目,不想只切图
提示词 / Prompt 工程师 ⭐⭐ 指令优化、AI 输出对齐、知识库构建、评测 逻辑表达 + 业务理解 + 基础 AI 常识 +30%~70% 文笔好、逻辑强,不想写太多代码
RAG 工程师 ⭐⭐⭐ 企业知识库、文档问答、向量库、检索优化 文本处理 + 向量数据库 + AI 应用 +60%~120% 想做企业级 AI,落地性强
AI Agent 工程师 ⭐⭐⭐ 智能体流程编排、工具调用、自动化任务 业务流程 + LLM 调度 + 前端 / 服务端 +80%~150% 未来核心方向,天花板高
大模型推理 / 部署工程师 ⭐⭐⭐ 模型量化、服务部署、性能优化、API 封装 Python/Docker + 推理框架 (vLLM 等) +100%~200% 喜欢工程化、性能优化、搞部署
大模型算法工程师 ⭐⭐⭐⭐ LoRA 微调、SFT/DPO、模型训练、算法优化 Python + PyTorch + 机器学习基础 100W+ 年薪 愿意深度学习算法、彻底转 AI
AI 架构师 / 技术负责人 ⭐⭐⭐⭐⭐ 整体方案设计、技术选型、团队管理 全栈技术 + 业务架构 + AI 方案 100W~200W+ 多年经验,想走管理 / 架构路线

大语言模型如何影响软件的构建

LLM 在软件开发过程中的单点提效

  1. 编码阶段:最直接、最明显的提效

    1. 代码自动补全与生成:根据注释、函数名、上下文直接生成完整逻辑,减少大量重复打字;
    2. 快速实现常见功能:CRUD、表单验证、列表渲染、分页、正则、工具函数等,自然语言描述即可生成;
    3. 多语言 / 框架代码翻译:Java ↔ Go、JS ↔ TS、Vue2 ↔ Vue3、SQL 自动生成,大幅降低切换成本;
    4. 样板代码一键生成:接口定义、DTO、Entity、枚举、配置文件、路由表等;
  2. 调试与 Bug 修复:快速定位问题

    1. 粘贴报错信息 → 直接给出原因 + 修复方案;
    2. 分析异常堆栈、定位空指针、异步问题、依赖冲突;
    3. 解释复杂代码逻辑,帮你快速看懂别人写的 “屎山”;
    4. 提供优化建议,减少重复试错;
  3. 代码重构与优化:自动改善质量

    1. 识别重复代码、死代码、坏味道;
    2. 自动抽取函数、优化条件、简化逻辑;
    3. 提升性能、可读性、可维护性;
    4. 按规范统一代码风格;
  4. 测试环节:自动生成测试用例

    1. 生成单元测试(Jest、JUnit、PyTest 等);
    2. 自动覆盖边界值、异常场景、空值、极端输入;
    3. 生成 Mock 数据、接口测试脚本;
    4. 自动检查测试覆盖率不足的地方;
  5. 文档编写:从 “痛苦” 到 “一键完成”

    1. 自动生成 API 文档、接口注释、参数说明;
    2. 自动生成 README、开发手册、部署指南;
    3. 根据代码逻辑生成流程图、时序图描述;
    4. 自动翻译多语言文档;
  6. 学习与查资料:替代大量搜索引擎

    1. 不懂语法、API、库用法 → 直接问;
    2. 快速理解设计模式、算法、架构思路;
    3. 解释新技术、新框架、新工具;
    4. 替代频繁翻阅官方文档、Stack Overflow;
  7. 脚本与工具编写:快速实现小工具

    1. 写自动化脚本:构建、部署、数据处理、批量操作;
    2. 写正则、解析日志、处理 JSON/CSV;
    3. 写小工具:批量重命名、数据清洗、格式转换;
  8. 需求与沟通:快速转化为技术方案

    1. 把产品模糊需求 → 整理成清晰技术任务;
    2. 自动生成接口约定、字段定义、流程说明;
    3. 快速输出技术方案、选型建议、架构思路;
  9. 环境与部署:快速解决配置问题

    1. 生成 Dockerfile、docker-compose;
    2. 生成 CI/CD 配置(GitHub Actions、Jenkins);
    3. 解决环境冲突、依赖安装失败、打包错误;
    4. 快速排查 Nginx、跨域、网络配置问题;

AI 时代的自动化编程 5 个等级

  1. L1:辅助补全级(代码提示)

    1. 能力:单行 / 短代码补全、语法提示、变量名建议;
    2. 代表工具:早期 Copilot、IntelliCode、普通 IDE 补全;
    3. 特点:被动、局部、依赖上下文;
    4. 人仍主导:逻辑、架构、流程完全由人设计;
  2. L2:生成片段级(函数 / 模块生成)

    1. 能力:根据注释或需求生成完整函数、组件、工具类;
    2. 代表工具:Copilot、Codeium、通义代码、豆包编码;
    3. 特点:可生成可运行代码片段,但需要人工修改、拼接;
    4. 适用:CRUD、工具函数、简单组件、TS 类型;
  3. L3:任务自治级(独立完成子任务)

    1. 能力:理解完整需求,自动完成单个独立功能,例:写一个登录表单、做一个接口、写一套测试;
    2. 代表工具:Copilot Chat、Cursor、Continue、Claude Code;
    3. 特点:能理解意图、自动调试、自我修正;
    4. 边界:只能做局部任务,不能统筹整个项目;
  4. L4:系统构建级(全应用自动生成)

    1. 能力:根据自然语言需求,生成完整项目结构 + 多文件代码 + 配置 + 文档;
    2. 代表形态:AI Agent、Devika、Roo Code、AutoGPT 系编程助手;
    3. 特点:
      • 自主规划架构;
      • 自主创建文件、调用工具、联调;
      • 可生成完整前端 / 后端 / 小程序;
    4. 人做什么:提需求、验收、把控质量与安全;
  5. L5:自主进化级(自我迭代与维护)

    1. 能力:
      • 理解业务目标;
      • 自主发现 Bug、优化性能、升级依赖;
      • 自主重构、扩展功能、适配需求变化;
    2. 形态:真正的软件自治智能体;
    3. 特点:无需人工干预,持续自我进化;
    4. 当前阶段:仍在实验室阶段,未商用;

vscode 插件:AI 助手

插件名称 核心功能 价格 隐私/离线 Vue/TS/Amis支持 适合场景
GitHub Copilot 代码补全、聊天、重构、单元测试、Agent模式 $10/月 云端(隐私一般) ★★★★★ 极佳 全场景、追求效率、预算充足
Codeium 无限补全、AI聊天、代码搜索、文档生成 个人免费 云端+本地缓存 ★★★★☆ 优秀 免费优先、学生、个人开发者
Tabnine 本地模型、企业级隐私、代码风格学习 基础免费/企业$12/月起 ★★★★★ 本地/离线 ★★★★ 良好 高隐私、企业、敏感代码
Continue 开源、自定义模型(Ollama/OpenAI/Claude) 完全开源免费 ★★★★★ 本地可控 ★★★★☆ 优秀 技术极客、隐私优先、自定义
通义灵码 中文优化、Vue/TS专属、文档查询 个人免费 云端 ★★★★★ 极佳 中文用户、国内团队、Vue/TS开发
Claude Code 长上下文、复杂推理、多文件编辑、Diff预览 按API计费 云端 ★★★★ 良好 复杂重构、大型文件、深度分析
Baidu Comate 文心大模型、中文理解、私有化部署 个人免费/企业付费 云端+私有化 ★★★★ 良好 国内企业、合规要求、中文场景
CodeGeeX 多语言、测试生成、代码翻译 完全免费 云端 ★★★☆ 一般 快速原型、学习、多语言场景
  1. 🌟 最佳组合(隐私+效率+成本平衡) Continue + Tabnine(本地)

    • Continue:自定义 Ollama 本地模型 (如CodeLlama/Qwen) 处理隐私代码;
    • Tabnine:本地补全,实时响应,保护敏感逻辑;
  2. 💰 免费最优组合 Codeium + 通义灵码

    • Codeium:无限免费补全,日常开发主力;
    • 通义灵码:中文优化,Vue/TS/Amis 专属支持;
  3. 🏢 企业级组合 GitHub Copilot(商业) + Tabnine(企业)

    • Copilot:生态完善,效率最高;
    • Tabnine:本地部署,合规隐私;

LLM 应用开发专有名词解释

名词 英文全称 一句话简介
LLM Large Language Model 大语言模型,能理解、生成人类语言的大规模预训练模型
AIGC AI-Generated Content 人工智能生成内容,用 AI 自动生成文本、图片、代码、音视频等
AGI Artificial General Intelligence 通用人工智能,具备人类级通用智能,可自主学习任意任务(暂未实现)
Agent AI Agent 智能体,能自主规划、调用工具、执行复杂任务的 AI 程序
Prompt Prompt 提示词,用户给AI的指令、问题或上下文,决定 AI 输出内容
GPT Generative Pre-trained Transformer 生成式预训练 Transformer 模型,OpenAI 推出的经典大模型架构
Token Token AI处理文本的最小单位,用于计量长度、计费和上下文窗口
LoRA Low-Rank Adaptation 低秩适配,轻量级微调技术,低成本让模型适配特定领域
向量数据库 Vector Database 专门存储和检索向量嵌入的数据库,用于 RAG 知识库检索
数据蒸馏 Knowledge Distillation 知识蒸馏,将大模型能力迁移压缩到小模型,兼顾效果与效率
打赏作者
您的打赏是我前进的动力
微信
支付宝
评论

你好👏🏻,我是 ✍🏻   疯狂 codding 中...

粽子

这有关于前端开发的技术文档和你分享。

相信你可以在这里找到对你有用的知识和教程。

了解更多

目录

  1. 1. LLM 大语言模型快速认识
    1. 1.1. 大语言模型是什么?
    2. 1.2. 什么是 Token、词表(Vocab)、上下文长度(Context Window)
    3. 1.3. LLM 大语言模型工作流程
    4. 1.4. 模型训练-从随机到智能
    5. 1.5. 为什么有些模型不支持中文 / 中文很差?
    6. 1.6. 常见误区(必看)
  2. 2. LLM 在企业中的价值与市场需求
    1. 2.1. LLM 在企业中的核心价值(可量化)
    2. 2.2. 主流行业落地场景(2026 真实应用)
    3. 2.3. 2026 企业市场需求(规模与趋势)
    4. 2.4. 大模型工程师:为什么职场竞争力极强?
    5. 2.5. 前端开发可转型的热门岗位(2026 最真实方向)
  3. 3. 大语言模型如何影响软件的构建
    1. 3.1. LLM 在软件开发过程中的单点提效
    2. 3.2. AI 时代的自动化编程 5 个等级
    3. 3.3. vscode 插件:AI 助手
  4. 4. LLM 应用开发专有名词解释