{
  "slug": "class-02",
  "title": "第二次课选择题",
  "subtitle": "第2课 · 班级测验整理",
  "sourceFiles": [
    "docs/class_quiz/02.md"
  ],
  "essenceTopicIds": [
    "topic-2",
    "topic-8"
  ],
  "topics": {
    "covered": [
      "AIGC 工作流与应用边界",
      "数据与版权问题"
    ],
    "followUp": [
      "提示工程与安全提示策略"
    ]
  },
  "totalQuestions": 26,
  "quiz": [
    {
      "id": "class-02-q1",
      "number": 1,
      "kind": "single",
      "question": "(概念)大模型通常指参数数量达到什么级别的深度学习模型?",
      "hint": "大模型一般指参数量达到亿级以上(如BERT-base有1.1亿，GPT-3有1750亿)，虽然近年也有万亿级模型，但“亿级”是公认的入门标准。",
      "options": [
        {
          "id": "class-02-q1-A",
          "text": "百万",
          "isCorrect": false,
          "rationale": "百万侧重的是另一个机制或层级：与材料中强调的「大模型通常指参数数量达到什么级别的深度学习模型」「大模型一般指参数量达到亿级以上」不一致；解析核心是「大模型一般指参数量达到亿级以上(如BERT-base有1.1亿，GPT-3有1750亿)，虽然近年也有万亿级模型，但“亿级”是公认的入门标准。」，因此更合适的是 C（亿）。"
        },
        {
          "id": "class-02-q1-B",
          "text": "千万",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「大模型通常指参数数量达到什么级别的深度学习模型」「大模型一般指参数量达到亿级以上」不一致；而 C 才覆盖「大模型一般指参数量达到亿级以上(如BERT-base有1.1亿，GPT-3有1750亿)，虽然近年也有万亿级模型，但“亿级”是公认的入门标准。」这层判断。"
        },
        {
          "id": "class-02-q1-C",
          "text": "亿",
          "isCorrect": true,
          "rationale": "大模型一般指参数量达到亿级以上(如BERT-base有1.1亿，GPT-3有1750亿)，虽然近年也有万亿级模型，但“亿级”是公认的入门标准。"
        },
        {
          "id": "class-02-q1-D",
          "text": "万亿",
          "isCorrect": false,
          "rationale": "万亿更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「大模型通常指参数数量达到什么级别的深度学习模型」「大模型一般指参数量达到亿级以上」不一致。请以解析「大模型一般指参数量达到亿级以上(如BERT-base有1.1亿，GPT-3有1750亿)，虽然近年也有万亿级模型，但“亿级”是公认的入门标准。」锁定 C。"
        }
      ],
      "sourceSnippet": "大模型一般指参数量达到亿级以上(如BERT-base有1.1亿，GPT-3有1750亿)，虽然近年也有万亿级模型，但“亿级”是公认的入门标准。"
    },
    {
      "id": "class-02-q2",
      "number": 2,
      "kind": "single",
      "question": "(概念)在自然语言处理中，“token”通常指的是什么?",
      "hint": "Token 是文本经过分词处理后得到的最小单位，可以是词、子词或字符，是模型处理的基本输入单元。",
      "options": [
        {
          "id": "class-02-q2-A",
          "text": "模型参数",
          "isCorrect": false,
          "rationale": "模型参数侧重的是另一个机制或层级：与材料中强调的「在自然语言处理中」「通常指的是什么」不一致；解析核心是「Token 是文本经过分词处理后得到的最小单位，可以是词、子词或字符，是模型处理的基本输入单元。」，因此更合适的是 B（输入文本被分词后的基本单元）。"
        },
        {
          "id": "class-02-q2-B",
          "text": "输入文本被分词后的基本单元",
          "isCorrect": true,
          "rationale": "Token 是文本经过分词处理后得到的最小单位，可以是词、子词或字符，是模型处理的基本输入单元。"
        },
        {
          "id": "class-02-q2-C",
          "text": "注意力权重",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 注意力权重会引入多余假设或跳过关键前提；请以「Token 是文本经过分词处理后得到的最小单位，可以是词、子词或字符，是模型处理的基本输入单元。」为轴对照 B。"
        },
        {
          "id": "class-02-q2-D",
          "text": "输出概率分布",
          "isCorrect": false,
          "rationale": "输出概率分布更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「在自然语言处理中」「通常指的是什么」不一致。请以解析「Token 是文本经过分词处理后得到的最小单位，可以是词、子词或字符，是模型处理的基本输入单元。」锁定 B。"
        }
      ],
      "sourceSnippet": "Token 是文本经过分词处理后得到的最小单位，可以是词、子词或字符，是模型处理的基本输入单元。"
    },
    {
      "id": "class-02-q3",
      "number": 3,
      "kind": "single",
      "question": "(概念)大模型通常将输入文本转换为 token 序列，这个过程称为?",
      "hint": "将文本分割成 token 的过程称为分词(tokenization)，之后每个 token 会被映射为对应的整数 ID。",
      "options": [
        {
          "id": "class-02-q3-A",
          "text": "嵌入",
          "isCorrect": false,
          "rationale": "嵌入侧重的是另一个机制或层级：与材料中强调的「大模型通常将输入文本转换为」「这个过程称为」不一致；解析核心是「将文本分割成 token 的过程称为分词(tokenization)，之后每个 token 会被映射为对应的整数 ID。」，因此更合适的是 B（分词）。"
        },
        {
          "id": "class-02-q3-B",
          "text": "分词",
          "isCorrect": true,
          "rationale": "将文本分割成 token 的过程称为分词(tokenization)，之后每个 token 会被映射为对应的整数 ID。"
        },
        {
          "id": "class-02-q3-C",
          "text": "编码",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 编码会引入多余假设或跳过关键前提；请以「将文本分割成 token 的过程称为分词(tokenization)，之后每个 token 会被映射为对应的整数 ID。」为轴对照 B。"
        },
        {
          "id": "class-02-q3-D",
          "text": "采样",
          "isCorrect": false,
          "rationale": "采样更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「大模型通常将输入文本转换为」「这个过程称为」不一致。请以解析「将文本分割成 token 的过程称为分词(tokenization)，之后每个 token 会被映射为对应的整数 ID。」锁定 B。"
        }
      ],
      "sourceSnippet": "将文本分割成 token 的过程称为分词(tokenization)，之后每个 token 会被映射为对应的整数 ID。"
    },
    {
      "id": "class-02-q4",
      "number": 4,
      "kind": "single",
      "question": "(概念)在自回归语言模型中，下一个 token 的预测通常基于什么?",
      "hint": "自回归模型(如 GPT)预测下一个 token 时，依赖之前所有已生成的 token(即上下文)，通过条件概率逐步生成。",
      "options": [
        {
          "id": "class-02-q4-A",
          "text": "所有历史 token",
          "isCorrect": true,
          "rationale": "自回归模型(如 GPT)预测下一个 token 时，依赖之前所有已生成的 token(即上下文)，通过条件概率逐步生成。"
        },
        {
          "id": "class-02-q4-B",
          "text": "只有当前 token",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「在自回归语言模型中」「下一个」不一致；而 A 才覆盖「自回归模型(如 GPT)预测下一个 token 时，依赖之前所有已生成的 token(即上下文)，通过条件概率逐步生成。」这层判断。"
        },
        {
          "id": "class-02-q4-C",
          "text": "随机噪声",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 随机噪声会引入多余假设或跳过关键前提；请以「自回归模型(如 GPT)预测下一个 token 时，依赖之前所有已生成的 token(即上下文)，通过条件概率逐步生成。」为轴对照 A。"
        },
        {
          "id": "class-02-q4-D",
          "text": "未来的 token",
          "isCorrect": false,
          "rationale": "未来的 token更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「在自回归语言模型中」「下一个」不一致。请以解析「自回归模型(如 GPT)预测下一个 token 时，依赖之前所有已生成的 token(即上下文)，通过条件概率逐步生成。」锁定 A。"
        }
      ],
      "sourceSnippet": "自回归模型(如 GPT)预测下一个 token 时，依赖之前所有已生成的 token(即上下文)，通过条件概率逐步生成。"
    },
    {
      "id": "class-02-q5",
      "number": 5,
      "kind": "single",
      "question": "(概念)思维链(Chain-of-Thought)提示特别适用于提升模型在哪类任务上的表现?",
      "hint": "思维链提示引导模型生成中间推理步骤，显著提升数学、逻辑等复杂推理任务的准确性。",
      "options": [
        {
          "id": "class-02-q5-A",
          "text": "文本分类",
          "isCorrect": false,
          "rationale": "文本分类侧重的是另一个机制或层级：与材料中强调的「思维链」「提示特别适用于提升模型在哪类任务上的表现」不一致；解析核心是「思维链提示引导模型生成中间推理步骤，显著提升数学、逻辑等复杂推理任务的准确性。」，因此更合适的是 C（复杂推理(如数学、常识推理)）。"
        },
        {
          "id": "class-02-q5-B",
          "text": "情感分析",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「思维链」「提示特别适用于提升模型在哪类任务上的表现」不一致；而 C 才覆盖「思维链提示引导模型生成中间推理步骤，显著提升数学、逻辑等复杂推理任务的准确性。」这层判断。"
        },
        {
          "id": "class-02-q5-C",
          "text": "复杂推理(如数学、常识推理)",
          "isCorrect": true,
          "rationale": "思维链提示引导模型生成中间推理步骤，显著提升数学、逻辑等复杂推理任务的准确性。"
        },
        {
          "id": "class-02-q5-D",
          "text": "文本生成流畅度",
          "isCorrect": false,
          "rationale": "文本生成流畅度更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「思维链」「提示特别适用于提升模型在哪类任务上的表现」不一致。请以解析「思维链提示引导模型生成中间推理步骤，显著提升数学、逻辑等复杂推理任务的准确性。」锁定 C。"
        }
      ],
      "sourceSnippet": "思维链提示引导模型生成中间推理步骤，显著提升数学、逻辑等复杂推理任务的准确性。"
    },
    {
      "id": "class-02-q6",
      "number": 6,
      "kind": "single",
      "question": "(概念)图灵测试中，如果一台机器成功地让测试者无法区分它和人类，那么可以得出结论?",
      "hint": "图灵测试仅表明机器在行为上模拟了人类，并不涉及内在理解或意识，因此只能得出“通过测试”的结论。",
      "options": [
        {
          "id": "class-02-q6-A",
          "text": "机器具有真正的智能",
          "isCorrect": false,
          "rationale": "机器具有真正的智能侧重的是另一个机制或层级：与材料中强调的「图灵测试中」「如果一台机器成功地让测试者无法区分它和人类」不一致；解析核心是「图灵测试仅表明机器在行为上模拟了人类，并不涉及内在理解或意识，因此只能得出“通过测试”的结论。」，因此更合适的是 C（机器通过了图灵测试）。"
        },
        {
          "id": "class-02-q6-B",
          "text": "机器能够思考",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「图灵测试中」「如果一台机器成功地让测试者无法区分它和人类」不一致；而 C 才覆盖「图灵测试仅表明机器在行为上模拟了人类，并不涉及内在理解或意识，因此只能得出“通过测试”的结论。」这层判断。"
        },
        {
          "id": "class-02-q6-C",
          "text": "机器通过了图灵测试",
          "isCorrect": true,
          "rationale": "图灵测试仅表明机器在行为上模拟了人类，并不涉及内在理解或意识，因此只能得出“通过测试”的结论。"
        },
        {
          "id": "class-02-q6-D",
          "text": "机器具有意识",
          "isCorrect": false,
          "rationale": "机器具有意识更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「图灵测试中」「如果一台机器成功地让测试者无法区分它和人类」不一致。请以解析「图灵测试仅表明机器在行为上模拟了人类，并不涉及内在理解或意识，因此只能得出“通过测试”的结论。」锁定 C。"
        }
      ],
      "sourceSnippet": "图灵测试仅表明机器在行为上模拟了人类，并不涉及内在理解或意识，因此只能得出“通过测试”的结论。"
    },
    {
      "id": "class-02-q7",
      "number": 7,
      "kind": "single",
      "question": "(概念)中文屋思想实验的主要结论是?",
      "hint": "塞尔的中文屋实验说明，即使按照规则输出正确符号，屋内的人并不理解中文，以此反驳强人工智能观点。",
      "options": [
        {
          "id": "class-02-q7-A",
          "text": "只要规则足够复杂，符号操作就能产生理解",
          "isCorrect": false,
          "rationale": "只要规则足够复杂，符号操作就能产生理解侧重的是另一个机制或层级：与材料中强调的「中文屋思想实验的主要结论是」「塞尔的中文屋实验说明」不一致；解析核心是「塞尔的中文屋实验说明，即使按照规则输出正确符号，屋内的人并不理解中文，以此反驳强人工智能观点。」，因此更合适的是 C（纯粹的符号操作无法产生真正的语义理解）。"
        },
        {
          "id": "class-02-q7-B",
          "text": "机器无法通过图灵测试",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「中文屋思想实验的主要结论是」「塞尔的中文屋实验说明」不一致；而 C 才覆盖「塞尔的中文屋实验说明，即使按照规则输出正确符号，屋内的人并不理解中文，以此反驳强人工智能观点。」这层判断。"
        },
        {
          "id": "class-02-q7-C",
          "text": "纯粹的符号操作无法产生真正的语义理解",
          "isCorrect": true,
          "rationale": "塞尔的中文屋实验说明，即使按照规则输出正确符号，屋内的人并不理解中文，以此反驳强人工智能观点。"
        },
        {
          "id": "class-02-q7-D",
          "text": "中文是一种难以学习的语言",
          "isCorrect": false,
          "rationale": "中文是一种难以学习的语言更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「中文屋思想实验的主要结论是」「塞尔的中文屋实验说明」不一致。请以解析「塞尔的中文屋实验说明，即使按照规则输出正确符号，屋内的人并不理解中文，以此反驳强人工智能观点。」锁定 C。"
        }
      ],
      "sourceSnippet": "塞尔的中文屋实验说明，即使按照规则输出正确符号，屋内的人并不理解中文，以此反驳强人工智能观点。"
    },
    {
      "id": "class-02-q8",
      "number": 8,
      "kind": "single",
      "question": "(场景)某大模型宣称其上下文窗口为 2048 个 token，这意味着什么?",
      "hint": "上下文窗口指模型能同时处理的最大 token 数量，输入和输出的总 token 数不能超过该值，超出部分会被截断或无法处理。",
      "options": [
        {
          "id": "class-02-q8-A",
          "text": "模型最多能生成 2048 个汉字",
          "isCorrect": false,
          "rationale": "模型最多能生成 2048 个汉字侧重的是另一个机制或层级：与材料中强调的「某大模型宣称其上下文窗口为」「这意味着什么」不一致；解析核心是「上下文窗口指模型能同时处理的最大 token 数量，输入和输出的总 token 数不能超过该值，超出部分会被截断或无法处理。」，因此更合适的是 B（模型一次能处理的最长输入(包括提示和生成)不超过 2048 个 token）。"
        },
        {
          "id": "class-02-q8-B",
          "text": "模型一次能处理的最长输入(包括提示和生成)不超过 2048 个 token",
          "isCorrect": true,
          "rationale": "上下文窗口指模型能同时处理的最大 token 数量，输入和输出的总 token 数不能超过该值，超出部分会被截断或无法处理。"
        },
        {
          "id": "class-02-q8-C",
          "text": "模型有 2048 层",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 模型有 2048 层会引入多余假设或跳过关键前提；请以「上下文窗口指模型能同时处理的最大 token 数量，输入和输出的总 token 数不能超过该值，超出部分会被截断或无法处理。」为轴对照 B。"
        },
        {
          "id": "class-02-q8-D",
          "text": "词汇表大小为 2048",
          "isCorrect": false,
          "rationale": "词汇表大小为 2048更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「某大模型宣称其上下文窗口为」「这意味着什么」不一致。请以解析「上下文窗口指模型能同时处理的最大 token 数量，输入和输出的总 token 数不能超过该值，超出部分会被截断或无法处理。」锁定 B。"
        }
      ],
      "sourceSnippet": "上下文窗口指模型能同时处理的最大 token 数量，输入和输出的总 token 数不能超过该值，超出部分会被截断或无法处理。"
    },
    {
      "id": "class-02-q9",
      "number": 9,
      "kind": "single",
      "question": "(场景)用户在向大模型提问时，输入了 1000 个汉字，分词后得到 1200 个 token。模型生成了 800 个 token 的回答。这次交互总共消耗了多少 token 的上下文窗口?",
      "hint": "上下文窗口通常包括输入和输出的总 token 数，因此总消耗为 1200(输入)+ 800(输出)= 2000。",
      "options": [
        {
          "id": "class-02-q9-A",
          "text": "1000",
          "isCorrect": false,
          "rationale": "1000侧重的是另一个机制或层级：与材料中强调的「用户在向大模型提问时」「输入了」不一致；解析核心是「上下文窗口通常包括输入和输出的总 token 数，因此总消耗为 1200(输入)+ 800(输出)= 2000。」，因此更合适的是 C（2000）。"
        },
        {
          "id": "class-02-q9-B",
          "text": "1200",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「用户在向大模型提问时」「输入了」不一致；而 C 才覆盖「上下文窗口通常包括输入和输出的总 token 数，因此总消耗为 1200(输入)+ 800(输出)= 2000。」这层判断。"
        },
        {
          "id": "class-02-q9-C",
          "text": "2000",
          "isCorrect": true,
          "rationale": "上下文窗口通常包括输入和输出的总 token 数，因此总消耗为 1200(输入)+ 800(输出)= 2000。"
        },
        {
          "id": "class-02-q9-D",
          "text": "800",
          "isCorrect": false,
          "rationale": "800更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「用户在向大模型提问时」「输入了」不一致。请以解析「上下文窗口通常包括输入和输出的总 token 数，因此总消耗为 1200(输入)+ 800(输出)= 2000。」锁定 C。"
        }
      ],
      "sourceSnippet": "上下文窗口通常包括输入和输出的总 token 数，因此总消耗为 1200(输入)+ 800(输出)= 2000。"
    },
    {
      "id": "class-02-q10",
      "number": 10,
      "kind": "single",
      "question": "(场景)某公司正在开发一个智能客服机器人，需要解决用户的多步推理问题(例如“如果会员折扣是8折，原价200元的商品最终价格是多少?”)。他们希望模型能展示计算步骤。应该采用哪种提示方法?",
      "hint": "思维链提示通过示例引导模型输出中间推理过程，特别适合多步计算或逻辑推理任务。",
      "options": [
        {
          "id": "class-02-q10-A",
          "text": "零样本提示",
          "isCorrect": false,
          "rationale": "零样本提示侧重的是另一个机制或层级：与材料中强调的「某公司正在开发一个智能客服机器人」「需要解决用户的多步推理问题」不一致；解析核心是「思维链提示通过示例引导模型输出中间推理过程，特别适合多步计算或逻辑推理任务。」，因此更合适的是 B（思维链提示）。"
        },
        {
          "id": "class-02-q10-B",
          "text": "思维链提示",
          "isCorrect": true,
          "rationale": "思维链提示通过示例引导模型输出中间推理过程，特别适合多步计算或逻辑推理任务。"
        },
        {
          "id": "class-02-q10-C",
          "text": "情感提示",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 情感提示会引入多余假设或跳过关键前提；请以「思维链提示通过示例引导模型输出中间推理过程，特别适合多步计算或逻辑推理任务。」为轴对照 B。"
        },
        {
          "id": "class-02-q10-D",
          "text": "关键词提示",
          "isCorrect": false,
          "rationale": "关键词提示更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「某公司正在开发一个智能客服机器人」「需要解决用户的多步推理问题」不一致。请以解析「思维链提示通过示例引导模型输出中间推理过程，特别适合多步计算或逻辑推理任务。」锁定 B。"
        }
      ],
      "sourceSnippet": "思维链提示通过示例引导模型输出中间推理过程，特别适合多步计算或逻辑推理任务。"
    },
    {
      "id": "class-02-q11",
      "number": 11,
      "kind": "single",
      "question": "(场景)一位用户询问大模型:“今天北京的气温是多少?”，模型回答:“我无法获取实时天气信息，请查询天气网站。”这个回答表明大模型存在什么局限?",
      "hint": "大模型训练数据有截止日期，且不具备实时联网能力，因此无法提供实时信息，这是常见局限。",
      "options": [
        {
          "id": "class-02-q11-A",
          "text": "缺乏实时信息获取能力",
          "isCorrect": true,
          "rationale": "大模型训练数据有截止日期，且不具备实时联网能力，因此无法提供实时信息，这是常见局限。"
        },
        {
          "id": "class-02-q11-B",
          "text": "推理能力弱",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「一位用户询问大模型」「今天北京的气温是多少」不一致；而 A 才覆盖「大模型训练数据有截止日期，且不具备实时联网能力，因此无法提供实时信息，这是常见局限。」这层判断。"
        },
        {
          "id": "class-02-q11-C",
          "text": "存在幻觉",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 存在幻觉会引入多余假设或跳过关键前提；请以「大模型训练数据有截止日期，且不具备实时联网能力，因此无法提供实时信息，这是常见局限。」为轴对照 A。"
        },
        {
          "id": "class-02-q11-D",
          "text": "上下文窗口有限",
          "isCorrect": false,
          "rationale": "上下文窗口有限更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「一位用户询问大模型」「今天北京的气温是多少」不一致。请以解析「大模型训练数据有截止日期，且不具备实时联网能力，因此无法提供实时信息，这是常见局限。」锁定 A。"
        }
      ],
      "sourceSnippet": "大模型训练数据有截止日期，且不具备实时联网能力，因此无法提供实时信息，这是常见局限。"
    },
    {
      "id": "class-02-q12",
      "number": 12,
      "kind": "single",
      "question": "(概念)大语言模型预训练时常用的“下一个词预测”任务属于哪种学习范式?",
      "hint": "下一个词预测从文本自身构造监督信号(前文预测后文)，属于自监督学习，无需人工标注。",
      "options": [
        {
          "id": "class-02-q12-A",
          "text": "监督学习",
          "isCorrect": false,
          "rationale": "监督学习侧重的是另一个机制或层级：与材料中强调的「大语言模型预训练时常用的」「下一个词预测」不一致；解析核心是「下一个词预测从文本自身构造监督信号(前文预测后文)，属于自监督学习，无需人工标注。」，因此更合适的是 B（自监督学习）。"
        },
        {
          "id": "class-02-q12-B",
          "text": "自监督学习",
          "isCorrect": true,
          "rationale": "下一个词预测从文本自身构造监督信号(前文预测后文)，属于自监督学习，无需人工标注。"
        },
        {
          "id": "class-02-q12-C",
          "text": "强化学习",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 强化学习会引入多余假设或跳过关键前提；请以「下一个词预测从文本自身构造监督信号(前文预测后文)，属于自监督学习，无需人工标注。」为轴对照 B。"
        },
        {
          "id": "class-02-q12-D",
          "text": "无监督学习",
          "isCorrect": false,
          "rationale": "无监督学习更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「大语言模型预训练时常用的」「下一个词预测」不一致。请以解析「下一个词预测从文本自身构造监督信号(前文预测后文)，属于自监督学习，无需人工标注。」锁定 B。"
        }
      ],
      "sourceSnippet": "下一个词预测从文本自身构造监督信号(前文预测后文)，属于自监督学习，无需人工标注。"
    },
    {
      "id": "class-02-q13",
      "number": 13,
      "kind": "single",
      "question": "(概念)Transformer 架构最初在哪个领域取得了突破性成功?",
      "hint": "Transformer 最初由 Google 在 2017 年提出，用于机器翻译任务，并在自然语言处理领域迅速成为主流架构，后来才被扩展到其他领域。",
      "options": [
        {
          "id": "class-02-q13-A",
          "text": "计算机视觉",
          "isCorrect": false,
          "rationale": "计算机视觉侧重的是另一个机制或层级：与材料中强调的「架构最初在哪个领域取得了突破性成功」「最初由」不一致；解析核心是「Transformer 最初由 Google 在 2017 年提出，用于机器翻译任务，并在自然语言处理领域迅速成为主流架构，后来才被扩展到其他领域。」，因此更合适的是 B（自然语言处理）。"
        },
        {
          "id": "class-02-q13-B",
          "text": "自然语言处理",
          "isCorrect": true,
          "rationale": "Transformer 最初由 Google 在 2017 年提出，用于机器翻译任务，并在自然语言处理领域迅速成为主流架构，后来才被扩展到其他领域。"
        },
        {
          "id": "class-02-q13-C",
          "text": "语音识别",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 语音识别会引入多余假设或跳过关键前提；请以「Transformer 最初由 Google 在 2017 年提出，用于机器翻译任务，并在自然语言处理领域迅速成为主流架构，后来才被扩展到其他领域。」为轴对照 B。"
        },
        {
          "id": "class-02-q13-D",
          "text": "强化学习",
          "isCorrect": false,
          "rationale": "强化学习更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「架构最初在哪个领域取得了突破性成功」「最初由」不一致。请以解析「Transformer 最初由 Google 在 2017 年提出，用于机器翻译任务，并在自然语言处理领域迅速成为主流架构，后来才被扩展到其他领域。」锁定 B。"
        }
      ],
      "sourceSnippet": "Transformer 最初由 Google 在 2017 年提出，用于机器翻译任务，并在自然语言处理领域迅速成为主流架构，后来才被扩展到其他领域。"
    },
    {
      "id": "class-02-q14",
      "number": 14,
      "kind": "single",
      "question": "(概念)相比循环神经网络(RNN)，Transformer 的主要优势是什么?",
      "hint": "RNN 按时间步串行计算，难以并行且长距离依赖容易衰减;Transformer 基于自注意力，可并行计算所有位置的表示，并能直接建模任意距离的依赖。",
      "options": [
        {
          "id": "class-02-q14-A",
          "text": "能够处理不定长序列",
          "isCorrect": false,
          "rationale": "能够处理不定长序列侧重的是另一个机制或层级：与材料中强调的「相比循环神经网络」「的主要优势是什么」不一致；解析核心是「RNN 按时间步串行计算，难以并行且长距离依赖容易衰减;Transformer 基于自注意力，可并行计算所有位置的表示，并能直接建模任意距离的依赖。」，因此更合适的是 B（支持并行计算，捕获长距离依赖）。"
        },
        {
          "id": "class-02-q14-B",
          "text": "支持并行计算，捕获长距离依赖",
          "isCorrect": true,
          "rationale": "RNN 按时间步串行计算，难以并行且长距离依赖容易衰减;Transformer 基于自注意力，可并行计算所有位置的表示，并能直接建模任意距离的依赖。"
        },
        {
          "id": "class-02-q14-C",
          "text": "参数量更少",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 参数量更少会引入多余假设或跳过关键前提；请以「RNN 按时间步串行计算，难以并行且长距离依赖容易衰减;Transformer 基于自注意力，可并行计算所有位置的表示，并能直接建模任意距离的依赖。」为轴对照 B。"
        },
        {
          "id": "class-02-q14-D",
          "text": "无需训练即可使用",
          "isCorrect": false,
          "rationale": "无需训练即可使用更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「相比循环神经网络」「的主要优势是什么」不一致。请以解析「RNN 按时间步串行计算，难以并行且长距离依赖容易衰减;Transformer 基于自注意力，可并行计算所有位置的表示，并能直接建模任意距离的依赖。」锁定 B。"
        }
      ],
      "sourceSnippet": "RNN 按时间步串行计算，难以并行且长距离依赖容易衰减;Transformer 基于自注意力，可并行计算所有位置的表示，并能直接建模任意距离的依赖。"
    },
    {
      "id": "class-02-q15",
      "number": 15,
      "kind": "single",
      "question": "(概念)为什么 Transformer 能够实现并行训练?",
      "hint": "RNN 需要按时间步串行计算，而 Transformer 的自注意力通过矩阵运算一次性计算整个序列的表示，因此可以高度并行化，大幅提升训练效率。",
      "options": [
        {
          "id": "class-02-q15-A",
          "text": "因为它使用卷积代替循环",
          "isCorrect": false,
          "rationale": "因为它使用卷积代替循环侧重的是另一个机制或层级：与材料中强调的「为什么」「能够实现并行训练」不一致；解析核心是「RNN 需要按时间步串行计算，而 Transformer 的自注意力通过矩阵运算一次性计算整个序列的表示，因此可以高度并行化，大幅提升训练效率。」，因此更合适的是 B（因为自注意力可以一次计算所有位置的表示，无需按时间步迭代）。"
        },
        {
          "id": "class-02-q15-B",
          "text": "因为自注意力可以一次计算所有位置的表示，无需按时间步迭代",
          "isCorrect": true,
          "rationale": "RNN 需要按时间步串行计算，而 Transformer 的自注意力通过矩阵运算一次性计算整个序列的表示，因此可以高度并行化，大幅提升训练效率。"
        },
        {
          "id": "class-02-q15-C",
          "text": "因为它没有非线性激活函数",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 因为它没有非线性激活函数会引入多余假设或跳过关键前提；请以「RNN 需要按时间步串行计算，而 Transformer 的自注意力通过矩阵运算一次性计算整个序列的表示，因此可以高度并行化，大幅提升训练效率。」为轴对照 B。"
        },
        {
          "id": "class-02-q15-D",
          "text": "因为它的参数量很少",
          "isCorrect": false,
          "rationale": "因为它的参数量很少更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「为什么」「能够实现并行训练」不一致。请以解析「RNN 需要按时间步串行计算，而 Transformer 的自注意力通过矩阵运算一次性计算整个序列的表示，因此可以高度并行化，大幅提升训练效率。」锁定 B。"
        }
      ],
      "sourceSnippet": "RNN 需要按时间步串行计算，而 Transformer 的自注意力通过矩阵运算一次性计算整个序列的表示，因此可以高度并行化，大幅提升训练效率。"
    },
    {
      "id": "class-02-q16",
      "number": 16,
      "kind": "single",
      "question": "(概念)在中文屋思想实验中，屋内的人不懂中文，但能根据规则手册输出正确的中文符号。这个实验旨在说明什么?",
      "hint": "实验表明，即使外部行为看似理解中文，内部操作只是符号转换，不具备真正的语义理解，以此批判强AI。",
      "options": [
        {
          "id": "class-02-q16-A",
          "text": "机器可以通过图灵测试",
          "isCorrect": false,
          "rationale": "机器可以通过图灵测试侧重的是另一个机制或层级：与材料中强调的「在中文屋思想实验中」「屋内的人不懂中文」不一致；解析核心是「实验表明，即使外部行为看似理解中文，内部操作只是符号转换，不具备真正的语义理解，以此批判强AI。」，因此更合适的是 B（语法操作不等于语义理解）。"
        },
        {
          "id": "class-02-q16-B",
          "text": "语法操作不等于语义理解",
          "isCorrect": true,
          "rationale": "实验表明，即使外部行为看似理解中文，内部操作只是符号转换，不具备真正的语义理解，以此批判强AI。"
        },
        {
          "id": "class-02-q16-C",
          "text": "中文很容易被形式化",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 中文很容易被形式化会引入多余假设或跳过关键前提；请以「实验表明，即使外部行为看似理解中文，内部操作只是符号转换，不具备真正的语义理解，以此批判强AI。」为轴对照 B。"
        },
        {
          "id": "class-02-q16-D",
          "text": "人工智能可以实现强人工智能",
          "isCorrect": false,
          "rationale": "人工智能可以实现强人工智能更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「在中文屋思想实验中」「屋内的人不懂中文」不一致。请以解析「实验表明，即使外部行为看似理解中文，内部操作只是符号转换，不具备真正的语义理解，以此批判强AI。」锁定 B。"
        }
      ],
      "sourceSnippet": "实验表明，即使外部行为看似理解中文，内部操作只是符号转换，不具备真正的语义理解，以此批判强AI。"
    },
    {
      "id": "class-02-q17",
      "number": 17,
      "kind": "single",
      "question": "(场景)一个数学解题模型中，输入“一个长方形长10厘米，宽5厘米，求面积。”模型直接输出“50”。如果想引导模型给出“长×宽=10×5=50”这样的推理过程，可以使用什么方法?",
      "hint": "思维链提示通过示例让模型学会输出中间步骤，从而提升可解释性和准确性，尤其适合数学题。",
      "options": [
        {
          "id": "class-02-q17-A",
          "text": "思维链提示",
          "isCorrect": true,
          "rationale": "思维链提示通过示例让模型学会输出中间步骤，从而提升可解释性和准确性，尤其适合数学题。"
        },
        {
          "id": "class-02-q17-B",
          "text": "增加模型层数",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「一个数学解题模型中」「一个长方形长」不一致；而 A 才覆盖「思维链提示通过示例让模型学会输出中间步骤，从而提升可解释性和准确性，尤其适合数学题。」这层判断。"
        },
        {
          "id": "class-02-q17-C",
          "text": "提高采样温度",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 提高采样温度会引入多余假设或跳过关键前提；请以「思维链提示通过示例让模型学会输出中间步骤，从而提升可解释性和准确性，尤其适合数学题。」为轴对照 A。"
        },
        {
          "id": "class-02-q17-D",
          "text": "使用更大的批大小",
          "isCorrect": false,
          "rationale": "使用更大的批大小更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「一个数学解题模型中」「一个长方形长」不一致。请以解析「思维链提示通过示例让模型学会输出中间步骤，从而提升可解释性和准确性，尤其适合数学题。」锁定 A。"
        }
      ],
      "sourceSnippet": "思维链提示通过示例让模型学会输出中间步骤，从而提升可解释性和准确性，尤其适合数学题。"
    },
    {
      "id": "class-02-q18",
      "number": 18,
      "kind": "single",
      "question": "(概念)Transformer 模型的基本组成单元包括哪些部分?",
      "hint": "标准 Transformer 由编码器(Encoder)和解码器(Decoder)堆叠而成，每个编码器/解码器又由多头注意力和前馈网络等子层组成。",
      "options": [
        {
          "id": "class-02-q18-A",
          "text": "编码器和解码器堆叠",
          "isCorrect": true,
          "rationale": "标准 Transformer 由编码器(Encoder)和解码器(Decoder)堆叠而成，每个编码器/解码器又由多头注意力和前馈网络等子层组成。"
        },
        {
          "id": "class-02-q18-B",
          "text": "循环层和卷积层",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「模型的基本组成单元包括哪些部分」「由编码器」不一致；而 A 才覆盖「标准 Transformer 由编码器(Encoder)和解码器(Decoder)堆叠而成，每个编码器/解码器又由多头注意力和前馈网络等子层组成。」这层判断。"
        },
        {
          "id": "class-02-q18-C",
          "text": "生成器和判别器",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 生成器和判别器会引入多余假设或跳过关键前提；请以「标准 Transformer 由编码器(Encoder)和解码器(Decoder)堆叠而成，每个编码器/解码器又由多头注意力和前馈网络等子层组成。」为轴对照 A。"
        },
        {
          "id": "class-02-q18-D",
          "text": "池化层和全连接层",
          "isCorrect": false,
          "rationale": "池化层和全连接层更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「模型的基本组成单元包括哪些部分」「由编码器」不一致。请以解析「标准 Transformer 由编码器(Encoder)和解码器(Decoder)堆叠而成，每个编码器/解码器又由多头注意力和前馈网络等子层组成。」锁定 A。"
        }
      ],
      "sourceSnippet": "标准 Transformer 由编码器(Encoder)和解码器(Decoder)堆叠而成，每个编码器/解码器又由多头注意力和前馈网络等子层组成。"
    },
    {
      "id": "class-02-q19",
      "number": 19,
      "kind": "single",
      "question": "(场景)某AI实验室声称他们的大模型在盲测中通过了图灵测试，但一些哲学家指出，即使机器能模拟对话，也不代表它有理解能力，因为机器可能只是执行符号操作。他们引用了哪个著名的思想实验来支持这一观点?",
      "hint": "中文屋思想实验正是说明符号操作无法产生真正的理解，常被用来反驳仅凭图灵测试就断言机器具有智能的观点。",
      "options": [
        {
          "id": "class-02-q19-A",
          "text": "中文屋",
          "isCorrect": true,
          "rationale": "中文屋思想实验正是说明符号操作无法产生真正的理解，常被用来反驳仅凭图灵测试就断言机器具有智能的观点。"
        },
        {
          "id": "class-02-q19-B",
          "text": "玛丽房间",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「实验室声称他们的大模型在盲测中通过了图灵测试」「但一些哲学家指出」不一致；而 A 才覆盖「中文屋思想实验正是说明符号操作无法产生真正的理解，常被用来反驳仅凭图灵测试就断言机器具有智能的观点。」这层判断。"
        },
        {
          "id": "class-02-q19-C",
          "text": "哲学僵尸",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 哲学僵尸会引入多余假设或跳过关键前提；请以「中文屋思想实验正是说明符号操作无法产生真正的理解，常被用来反驳仅凭图灵测试就断言机器具有智能的观点。」为轴对照 A。"
        },
        {
          "id": "class-02-q19-D",
          "text": "图灵机",
          "isCorrect": false,
          "rationale": "图灵机更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「实验室声称他们的大模型在盲测中通过了图灵测试」「但一些哲学家指出」不一致。请以解析「中文屋思想实验正是说明符号操作无法产生真正的理解，常被用来反驳仅凭图灵测试就断言机器具有智能的观点。」锁定 A。"
        }
      ],
      "sourceSnippet": "中文屋思想实验正是说明符号操作无法产生真正的理解，常被用来反驳仅凭图灵测试就断言机器具有智能的观点。"
    },
    {
      "id": "class-02-q20",
      "number": 20,
      "kind": "single",
      "question": "(概念)图灵测试首次提出是在哪篇论文中?",
      "hint": "图灵1950年发表论文《计算机器与智能》(Computing Machinery and Intelligence)，首次提出图灵测试。",
      "options": [
        {
          "id": "class-02-q20-A",
          "text": "《计算机器与智能》",
          "isCorrect": true,
          "rationale": "图灵1950年发表论文《计算机器与智能》(Computing Machinery and Intelligence)，首次提出图灵测试。"
        },
        {
          "id": "class-02-q20-B",
          "text": "《心灵、大脑与程序》",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「图灵测试首次提出是在哪篇论文中」「年发表论文」不一致；而 A 才覆盖「图灵1950年发表论文《计算机器与智能》(Computing Machinery and Intelligence)，首次提出图灵测试。」这层判断。"
        },
        {
          "id": "class-02-q20-C",
          "text": "《智能的架构》",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 《智能的架构》会引入多余假设或跳过关键前提；请以「图灵1950年发表论文《计算机器与智能》(Computing Machinery and Intelligence)，首次提出图灵测试。」为轴对照 A。"
        },
        {
          "id": "class-02-q20-D",
          "text": "《知觉的明灯》",
          "isCorrect": false,
          "rationale": "《知觉的明灯》更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「图灵测试首次提出是在哪篇论文中」「年发表论文」不一致。请以解析「图灵1950年发表论文《计算机器与智能》(Computing Machinery and Intelligence)，首次提出图灵测试。」锁定 A。"
        }
      ],
      "sourceSnippet": "图灵1950年发表论文《计算机器与智能》(Computing Machinery and Intelligence)，首次提出图灵测试。"
    },
    {
      "id": "class-02-q21",
      "number": 21,
      "kind": "single",
      "question": "(场景)一名学生使用大模型辅助撰写文献综述，模型在生成的段落中提到了一个作者和年份，但该学生核实后发现该文献并不存在。这种现象被称为?",
      "hint": "大模型可能生成看似合理但实际错误的信息，这种现象称为“幻觉”，是当前大模型常见问题。",
      "options": [
        {
          "id": "class-02-q21-A",
          "text": "幻觉",
          "isCorrect": true,
          "rationale": "大模型可能生成看似合理但实际错误的信息，这种现象称为“幻觉”，是当前大模型常见问题。"
        },
        {
          "id": "class-02-q21-B",
          "text": "过拟合",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「一名学生使用大模型辅助撰写文献综述」「模型在生成的段落中提到了一个作者和年份」不一致；而 A 才覆盖「大模型可能生成看似合理但实际错误的信息，这种现象称为“幻觉”，是当前大模型常见问题。」这层判断。"
        },
        {
          "id": "class-02-q21-C",
          "text": "知识截止",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 知识截止会引入多余假设或跳过关键前提；请以「大模型可能生成看似合理但实际错误的信息，这种现象称为“幻觉”，是当前大模型常见问题。」为轴对照 A。"
        },
        {
          "id": "class-02-q21-D",
          "text": "模式崩溃",
          "isCorrect": false,
          "rationale": "模式崩溃更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「一名学生使用大模型辅助撰写文献综述」「模型在生成的段落中提到了一个作者和年份」不一致。请以解析「大模型可能生成看似合理但实际错误的信息，这种现象称为“幻觉”，是当前大模型常见问题。」锁定 A。"
        }
      ],
      "sourceSnippet": "大模型可能生成看似合理但实际错误的信息，这种现象称为“幻觉”，是当前大模型常见问题。"
    },
    {
      "id": "class-02-q22",
      "number": 22,
      "kind": "single",
      "question": "(概念)多模态大模型在处理图文输入时，需要将不同模态的信息映射到同一个语义空间。这个关键过程通常被称为:",
      "hint": "模态对齐是多模态模型的核心技术，指让文本、图像、音频等不同模态的表示在向量空间中建立语义对应关系(例如让“猫”的文字和猫的图片距离更近)，这是实现跨模态理解的基础。",
      "options": [
        {
          "id": "class-02-q22-A",
          "text": "模态对齐",
          "isCorrect": true,
          "rationale": "模态对齐是多模态模型的核心技术，指让文本、图像、音频等不同模态的表示在向量空间中建立语义对应关系(例如让“猫”的文字和猫的图片距离更近)，这是实现跨模态理解的基础。"
        },
        {
          "id": "class-02-q22-B",
          "text": "模态分割",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「多模态大模型在处理图文输入时」「需要将不同模态的信息映射到同一个语义空间」不一致；而 A 才覆盖「模态对齐是多模态模型的核心技术，指让文本、图像、音频等不同模态的表示在向量空间中建立语义对应关系(例如让“猫”的文字和猫的图片距离更近)，这是实现跨模态理解的基础。」这层判断。"
        },
        {
          "id": "class-02-q22-C",
          "text": "模态压缩",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 模态压缩会引入多余假设或跳过关键前提；请以「模态对齐是多模态模型的核心技术，指让文本、图像、音频等不同模态的表示在向量空间中建立语义对应关系(例如让“猫”的文字和猫的图片距离更近)，这是实现跨模态理解的基础。」为轴对照 A。"
        },
        {
          "id": "class-02-q22-D",
          "text": "模态增强",
          "isCorrect": false,
          "rationale": "模态增强更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「多模态大模型在处理图文输入时」「需要将不同模态的信息映射到同一个语义空间」不一致。请以解析「模态对齐是多模态模型的核心技术，指让文本、图像、音频等不同模态的表示在向量空间中建立语义对应关系(例如让“猫”的文字和猫的图片距离更近)，这是实现跨模态理解的基础。」锁定 A。"
        }
      ],
      "sourceSnippet": "模态对齐是多模态模型的核心技术，指让文本、图像、音频等不同模态的表示在向量空间中建立语义对应关系(例如让“猫”的文字和猫的图片距离更近)，这是实现跨模态理解的基础。"
    },
    {
      "id": "class-02-q23",
      "number": 23,
      "kind": "single",
      "question": "(概念)关于生成式人工智能(GAI)与通用人工智能(AGI)的关系，下列哪项描述最准确?",
      "hint": "当前最先进的GAI在通用认知能力上(如持续学习、因果推理)距离AGI还有很大差距，两者是不同层次的概念。…（可先想：哪一选项与该句直接矛盾？）",
      "options": [
        {
          "id": "class-02-q23-A",
          "text": "GAI等同于AGI，两者只是称呼不同",
          "isCorrect": false,
          "rationale": "GAI等同于AGI，两者只是称呼不同侧重的是另一个机制或层级：与材料中强调的「关于生成式人工智能」「与通用人工智能」不一致；解析核心是「GAI(如ChatGPT)擅长生成文本、图像等内容，是“专才”;AGI追求在几乎所有认知任务上达到人类水平，是“通才”。当前最先进的GAI在通用认知能力上(如持续学习、因果推理)距离AGI还有很大差距，两者是不同层次的概念。」，因此更合适的是 C（GAI擅长内容生成，AGI追求跨领域的通用认知能力，当前GAI距离AGI尚有巨…）。"
        },
        {
          "id": "class-02-q23-B",
          "text": "GAI是AGI的初级阶段，已具备人类水平的通用认知能力",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「关于生成式人工智能」「与通用人工智能」不一致；而 C 才覆盖「GAI(如ChatGPT)擅长生成文本、图像等内容，是“专才”;AGI追求在几乎所有认知任务上达到人类水平，是“通才”。当前最先进的GAI在通用认知能力上(如持续学习、因果推理)距离AGI还有很大差距，两者是不同层次的概念。」这层判断。"
        },
        {
          "id": "class-02-q23-C",
          "text": "GAI擅长内容生成，AGI追求跨领域的通用认知能力，当前GAI距离AGI尚有巨大差距",
          "isCorrect": true,
          "rationale": "GAI(如ChatGPT)擅长生成文本、图像等内容，是“专才”;AGI追求在几乎所有认知任务上达到人类水平，是“通才”。当前最先进的GAI在通用认知能力上(如持续学习、因果推理)距离AGI还有很大差距，两者是不同层次的概念。"
        },
        {
          "id": "class-02-q23-D",
          "text": "AGI是GAI的一种特殊应用场景",
          "isCorrect": false,
          "rationale": "AGI是GAI的一种特殊应用场景更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「关于生成式人工智能」「与通用人工智能」不一致。请以解析「GAI(如ChatGPT)擅长生成文本、图像等内容，是“专才”;AGI追求在几乎所有认知任务上达到人类水平，是“通才”。当前最先进的GAI在通用认知能力上(如持续学习、因果推理)距离AGI还有很大差距，两者是不同层次的概念。」锁定 C。"
        }
      ],
      "sourceSnippet": "GAI(如ChatGPT)擅长生成文本、图像等内容，是“专才”;AGI追求在几乎所有认知任务上达到人类水平，是“通才”。当前最先进的GAI在通用认知能力上(如持续学习、因果推理)距离AGI还有很大差距，两者是不同层次的概念。"
    },
    {
      "id": "class-02-q24",
      "number": 24,
      "kind": "single",
      "question": "(概念)思维链提示通常要求模型在给出最终答案之前先输出什么?",
      "hint": "思维链的核心是让模型显式生成一步步推理过程，再得出最终结论，从而提升复杂任务的性能。",
      "options": [
        {
          "id": "class-02-q24-A",
          "text": "中间推理步骤",
          "isCorrect": true,
          "rationale": "思维链的核心是让模型显式生成一步步推理过程，再得出最终结论，从而提升复杂任务的性能。"
        },
        {
          "id": "class-02-q24-B",
          "text": "问题重述",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「思维链提示通常要求模型在给出最终答案之前先输出什么」「思维链的核心是让模型显式生成一步步推理过程」不一致；而 A 才覆盖「思维链的核心是让模型显式生成一步步推理过程，再得出最终结论，从而提升复杂任务的性能。」这层判断。"
        },
        {
          "id": "class-02-q24-C",
          "text": "相关知识点",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 相关知识点会引入多余假设或跳过关键前提；请以「思维链的核心是让模型显式生成一步步推理过程，再得出最终结论，从而提升复杂任务的性能。」为轴对照 A。"
        },
        {
          "id": "class-02-q24-D",
          "text": "答案的置信度",
          "isCorrect": false,
          "rationale": "答案的置信度更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「思维链提示通常要求模型在给出最终答案之前先输出什么」「思维链的核心是让模型显式生成一步步推理过程」不一致。请以解析「思维链的核心是让模型显式生成一步步推理过程，再得出最终结论，从而提升复杂任务的性能。」锁定 A。"
        }
      ],
      "sourceSnippet": "思维链的核心是让模型显式生成一步步推理过程，再得出最终结论，从而提升复杂任务的性能。"
    },
    {
      "id": "class-02-q25",
      "number": 25,
      "kind": "single",
      "question": "(场景)一个用户用大模型翻译“The weather is nice today”到中文，模型输出“今天天气很好”，但用户认为“很好”不如“真好”准确。这个差异最可能与什么有关?",
      "hint": "翻译用词差异通常源于训练数据中特定表达的频率，模型更倾向于选择出现次数多的同义词，这属于数据分布导致的偏好。",
      "options": [
        {
          "id": "class-02-q25-A",
          "text": "模型在训练数据中学到的同义词偏好",
          "isCorrect": true,
          "rationale": "翻译用词差异通常源于训练数据中特定表达的频率，模型更倾向于选择出现次数多的同义词，这属于数据分布导致的偏好。"
        },
        {
          "id": "class-02-q25-B",
          "text": "模型的推理错误",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「一个用户用大模型翻译」「到中文」不一致；而 A 才覆盖「翻译用词差异通常源于训练数据中特定表达的频率，模型更倾向于选择出现次数多的同义词，这属于数据分布导致的偏好。」这层判断。"
        },
        {
          "id": "class-02-q25-C",
          "text": "分词粒度",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 分词粒度会引入多余假设或跳过关键前提；请以「翻译用词差异通常源于训练数据中特定表达的频率，模型更倾向于选择出现次数多的同义词，这属于数据分布导致的偏好。」为轴对照 A。"
        },
        {
          "id": "class-02-q25-D",
          "text": "上下文窗口限制",
          "isCorrect": false,
          "rationale": "上下文窗口限制更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「一个用户用大模型翻译」「到中文」不一致。请以解析「翻译用词差异通常源于训练数据中特定表达的频率，模型更倾向于选择出现次数多的同义词，这属于数据分布导致的偏好。」锁定 A。"
        }
      ],
      "sourceSnippet": "翻译用词差异通常源于训练数据中特定表达的频率，模型更倾向于选择出现次数多的同义词，这属于数据分布导致的偏好。"
    },
    {
      "id": "class-02-q26",
      "number": 26,
      "kind": "single",
      "question": "(概念)大模型的“幻觉”现象本质上源于什么?",
      "hint": "它在训练中学会了“看起来合理”比“符合事实”更重要。选项B是原因之一但不是本质，选项D可能加剧幻觉但不是根源。…（可先想：哪一选项与该句直接矛盾？）",
      "options": [
        {
          "id": "class-02-q26-A",
          "text": "模型参数不够多",
          "isCorrect": false,
          "rationale": "模型参数不够多侧重的是另一个机制或层级：与材料中强调的「大模型的」「现象本质上源于什么」不一致；解析核心是「幻觉的根本原因是LLM被训练来预测下一个最可能的词，而非判断陈述的真假。它在训练中学会了“看起来合理”比“符合事实”更重要。选项B是原因之一但不是本质，选项D可能加剧幻觉但不是根源。」，因此更合适的是 C（模型作为概率预测器的本性——追求“流畅性”优先于“真实性”）。"
        },
        {
          "id": "class-02-q26-B",
          "text": "训练数据中的错误标注",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「大模型的」「现象本质上源于什么」不一致；而 C 才覆盖「幻觉的根本原因是LLM被训练来预测下一个最可能的词，而非判断陈述的真假。它在训练中学会了“看起来合理”比“符合事实”更重要。选项B是原因之一但不是本质，选项D可能加剧幻觉但不是根源。」这层判断。"
        },
        {
          "id": "class-02-q26-C",
          "text": "模型作为概率预测器的本性——追求“流畅性”优先于“真实性”",
          "isCorrect": true,
          "rationale": "幻觉的根本原因是LLM被训练来预测下一个最可能的词，而非判断陈述的真假。它在训练中学会了“看起来合理”比“符合事实”更重要。选项B是原因之一但不是本质，选项D可能加剧幻觉但不是根源。"
        },
        {
          "id": "class-02-q26-D",
          "text": "推理时温度参数设置过高",
          "isCorrect": false,
          "rationale": "推理时温度参数设置过高更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「大模型的」「现象本质上源于什么」不一致。请以解析「幻觉的根本原因是LLM被训练来预测下一个最可能的词，而非判断陈述的真假。它在训练中学会了“看起来合理”比“符合事实”更重要。选项B是原因之一但不是本质，选项D可能加剧幻觉但不是根源。」锁定 C。"
        }
      ],
      "sourceSnippet": "幻觉的根本原因是LLM被训练来预测下一个最可能的词，而非判断陈述的真假。它在训练中学会了“看起来合理”比“符合事实”更重要。选项B是原因之一但不是本质，选项D可能加剧幻觉但不是根源。"
    }
  ]
}