{
  "slug": "class-08-cnn",
  "title": "第八课 · 卷积与表示学习",
  "subtitle": "第8课 · CNN · 班级测验整理",
  "sourceFiles": [
    "docs/class_quiz/08-卷积学习.md"
  ],
  "essenceTopicIds": [
    "topic-5",
    "topic-6"
  ],
  "topics": {
    "covered": [
      "卷积与感受野",
      "通道与尺度公式",
      "表示层次"
    ],
    "followUp": [
      "现代 CNN 变体简述"
    ]
  },
  "totalQuestions": 20,
  "quiz": [
    {
      "id": "class-08-cnn-q1",
      "number": 1,
      "kind": "single",
      "question": "全连接深度神经网络(DNN)在图像分类任务中的一个主要弊端是?",
      "hint": "”…（可先想：哪一选项与该句直接矛盾？）",
      "options": [
        {
          "id": "class-08-cnn-q1-A",
          "text": "训练速度太慢",
          "isCorrect": false,
          "rationale": "训练速度太慢侧重的是另一个机制或层级：与材料中强调的「全连接深度神经网络」「在图像分类任务中的一个主要弊端是」不一致；解析核心是「“无法捕获二维图像的空间特征，对于图像的位置、大小、角度改变非常敏感，容易过拟合。”」，因此更合适的是 B（无法捕获二维图像的空间特征，对位置、大小、角度改变敏感）。"
        },
        {
          "id": "class-08-cnn-q1-B",
          "text": "无法捕获二维图像的空间特征，对位置、大小、角度改变敏感",
          "isCorrect": true,
          "rationale": "“无法捕获二维图像的空间特征，对于图像的位置、大小、角度改变非常敏感，容易过拟合。”"
        },
        {
          "id": "class-08-cnn-q1-C",
          "text": "不能使用反向传播算法",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 不能使用反向传播算法会引入多余假设或跳过关键前提；请以「“无法捕获二维图像的空间特征，对于图像的位置、大小、角度改变非常敏感，容易过拟合。”」为轴对照 B。"
        },
        {
          "id": "class-08-cnn-q1-D",
          "text": "只能处理灰度图像",
          "isCorrect": false,
          "rationale": "只能处理灰度图像更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「全连接深度神经网络」「在图像分类任务中的一个主要弊端是」不一致。请以解析「“无法捕获二维图像的空间特征，对于图像的位置、大小、角度改变非常敏感，容易过拟合。”」锁定 B。"
        }
      ],
      "sourceSnippet": "“无法捕获二维图像的空间特征，对于图像的位置、大小、角度改变非常敏感，容易过拟合。”"
    },
    {
      "id": "class-08-cnn-q2",
      "number": 2,
      "kind": "single",
      "question": "卷积神经网络的设计思想主要来源于?",
      "hint": "PPT提到:“卷积神经网络的思想来源 — 仿生学”，以及“它仿造生物的视知觉机制”。",
      "options": [
        {
          "id": "class-08-cnn-q2-A",
          "text": "数学形态学",
          "isCorrect": false,
          "rationale": "数学形态学侧重的是另一个机制或层级：与材料中强调的「卷积神经网络的设计思想主要来源于」「卷积神经网络的思想来源」不一致；解析核心是「PPT提到:“卷积神经网络的思想来源 — 仿生学”，以及“它仿造生物的视知觉机制”。」，因此更合适的是 B（仿生学(生物视知觉机制)）。"
        },
        {
          "id": "class-08-cnn-q2-B",
          "text": "仿生学(生物视知觉机制)",
          "isCorrect": true,
          "rationale": "PPT提到:“卷积神经网络的思想来源 — 仿生学”，以及“它仿造生物的视知觉机制”。"
        },
        {
          "id": "class-08-cnn-q2-C",
          "text": "概率图模型",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 概率图模型会引入多余假设或跳过关键前提；请以「PPT提到:“卷积神经网络的思想来源 — 仿生学”，以及“它仿造生物的视知觉机制”。」为轴对照 B。"
        },
        {
          "id": "class-08-cnn-q2-D",
          "text": "信息论",
          "isCorrect": false,
          "rationale": "信息论更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「卷积神经网络的设计思想主要来源于」「卷积神经网络的思想来源」不一致。请以解析「PPT提到:“卷积神经网络的思想来源 — 仿生学”，以及“它仿造生物的视知觉机制”。」锁定 B。"
        }
      ],
      "sourceSnippet": "PPT提到:“卷积神经网络的思想来源 — 仿生学”，以及“它仿造生物的视知觉机制”。"
    },
    {
      "id": "class-08-cnn-q3",
      "number": 3,
      "kind": "single",
      "question": "在卷积神经网络中，卷积核(滤波器)的主要作用是什么?",
      "hint": "池化层负责降维，Dropout 等防止过拟合，加速收敛由优化器或批归一化等实现。…（可先想：哪一选项与该句直接矛盾？）",
      "options": [
        {
          "id": "class-08-cnn-q3-A",
          "text": "降低输入数据的维度",
          "isCorrect": false,
          "rationale": "降低输入数据的维度侧重的是另一个机制或层级：与材料中强调的「在卷积神经网络中」「卷积核」不一致；解析核心是「卷积核通过在输入上滑动并计算点积，提取局部区域的特征(如边缘、纹理等)。池化层负责降维，Dropout 等防止过拟合，加速收敛由优化器或批归一化等实现。」，因此更合适的是 B（提取局部特征）。"
        },
        {
          "id": "class-08-cnn-q3-B",
          "text": "提取局部特征",
          "isCorrect": true,
          "rationale": "卷积核通过在输入上滑动并计算点积，提取局部区域的特征(如边缘、纹理等)。池化层负责降维，Dropout 等防止过拟合，加速收敛由优化器或批归一化等实现。"
        },
        {
          "id": "class-08-cnn-q3-C",
          "text": "防止过拟合",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 防止过拟合会引入多余假设或跳过关键前提；请以「卷积核通过在输入上滑动并计算点积，提取局部区域的特征(如边缘、纹理等)。池化层负责降维，Dropout 等防止过拟合，加速收敛由优化器或批归一化等实现。」为轴对照 B。"
        },
        {
          "id": "class-08-cnn-q3-D",
          "text": "加速训练收敛",
          "isCorrect": false,
          "rationale": "加速训练收敛更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「在卷积神经网络中」「卷积核」不一致。请以解析「卷积核通过在输入上滑动并计算点积，提取局部区域的特征(如边缘、纹理等)。池化层负责降维，Dropout 等防止过拟合，加速收敛由优化器或批归一化等实现。」锁定 B。"
        }
      ],
      "sourceSnippet": "卷积核通过在输入上滑动并计算点积，提取局部区域的特征(如边缘、纹理等)。池化层负责降维，Dropout 等防止过拟合，加速收敛由优化器或批归一化等实现。"
    },
    {
      "id": "class-08-cnn-q4",
      "number": 4,
      "kind": "single",
      "question": "第一个真正意义上的卷积神经网络(含深层结构和Dropout)是由谁提出的?",
      "hint": "所以“第一个卷积神经网络”可能指Fukushima的神经认知机，但题目问“含深层结构和Dropout”的是Hinton的AlexNet。根据PPT，2012年Hinton“提……（可先想：哪一选项与该句直接矛盾？）",
      "options": [
        {
          "id": "class-08-cnn-q4-A",
          "text": "Kunihiko Fukushima",
          "isCorrect": false,
          "rationale": "Kunihiko Fukushima侧重的是另一个机制或层级：与材料中强调的「第一个真正意义上的卷积神经网络」「含深层结构和」不一致；解析核心是「2012年Hinton提出了世界第一个卷积神经网络?仔细看:1962年Hubel&Wiesel;1980年Kunihiko Fukushima;1998年LeCun;2012年Hinton引入了全新的深层结构和dropout方法。所以“第一个卷积神经网络”可能指Fukushima的神经认知机，但题目问“含深层结构和D…」，因此更合适的是 C（Geoffrey Hinton）。"
        },
        {
          "id": "class-08-cnn-q4-B",
          "text": "Yann LeCun",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「第一个真正意义上的卷积神经网络」「含深层结构和」不一致；而 C 才覆盖「2012年Hinton提出了世界第一个卷积神经网络?仔细看:1962年Hubel&Wiesel;1980年Kunihiko Fukushima;1998年LeCun;2012年Hinton引入了全新的深层结构和dropout方法。所以“第一个卷积神经网络”可能指Fukushima的神经认知机，但题目问“含深层结构和D…」这层判断。"
        },
        {
          "id": "class-08-cnn-q4-C",
          "text": "Geoffrey Hinton",
          "isCorrect": true,
          "rationale": "2012年Hinton提出了世界第一个卷积神经网络?仔细看:1962年Hubel&Wiesel;1980年Kunihiko Fukushima;1998年LeCun;2012年Hinton引入了全新的深层结构和dropout方法。所以“第一个卷积神经网络”可能指Fukushima的神经认知机，但题目问“含深层结构和Dropout”的是Hinton的AlexNet。根据PPT，2012年Hinton“提出了世界第一个卷积神经网络”表述可能有歧义，但选项C最符合。"
        },
        {
          "id": "class-08-cnn-q4-D",
          "text": "Christian Szegedy",
          "isCorrect": false,
          "rationale": "Christian Szegedy更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「第一个真正意义上的卷积神经网络」「含深层结构和」不一致。请以解析「2012年Hinton提出了世界第一个卷积神经网络?仔细看:1962年Hubel&Wiesel;1980年Kunihiko Fukushima;1998年LeCun;2012年Hinton引入了全新的深层结构和dropout方法。所以“第…」锁定 C。"
        }
      ],
      "sourceSnippet": "2012年Hinton提出了世界第一个卷积神经网络?仔细看:1962年Hubel&Wiesel;1980年Kunihiko Fukushima;1998年LeCun;2012年Hinton引入了全新的深层结构和dropout方法。所以“第一个卷积神经网络”可能指Fukushima的神经认知机，但题目问“含深层结构和Dropout”的是Hinton的AlexNet。根据PPT，2012年Hinton“提出了世界第一个卷积神经网络”表述可能有歧义，但选项C最符合。"
    },
    {
      "id": "class-08-cnn-q5",
      "number": 5,
      "kind": "single",
      "question": "在CNN中，卷积核的主要特点是什么?",
      "hint": "“全图共享的卷积核(可学习参数)”。",
      "options": [
        {
          "id": "class-08-cnn-q5-A",
          "text": "每个像素点使用不同的卷积核",
          "isCorrect": false,
          "rationale": "每个像素点使用不同的卷积核侧重的是另一个机制或层级：与材料中强调的「卷积核的主要特点是什么」「全图共享的卷积核」不一致；解析核心是「“全图共享的卷积核(可学习参数)”。」，因此更合适的是 B（全图共享同一个卷积核）。"
        },
        {
          "id": "class-08-cnn-q5-B",
          "text": "全图共享同一个卷积核",
          "isCorrect": true,
          "rationale": "“全图共享的卷积核(可学习参数)”。 请回到题干限定条件：把「外延更大的表述」或「跳跃的前提」逐项排除后再选。"
        },
        {
          "id": "class-08-cnn-q5-C",
          "text": "卷积核大小必须为3×3",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 卷积核大小必须为3×3会引入多余假设或跳过关键前提；请以「“全图共享的卷积核(可学习参数)”。」为轴对照 B。"
        },
        {
          "id": "class-08-cnn-q5-D",
          "text": "卷积核是不可学习的固定参数",
          "isCorrect": false,
          "rationale": "卷积核是不可学习的固定参数更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「卷积核的主要特点是什么」「全图共享的卷积核」不一致。请以解析「“全图共享的卷积核(可学习参数)”。」锁定 B。"
        }
      ],
      "sourceSnippet": "“全图共享的卷积核(可学习参数)”。"
    },
    {
      "id": "class-08-cnn-q6",
      "number": 6,
      "kind": "single",
      "question": "对于一个输入特征图尺寸为 (高×宽×通道数)，使用 10 个 的卷积核，步长=1，填充=0(有效卷积)。输出的特征图尺寸是多少?",
      "hint": "因此输出 。 其中，其中H是输入高度，K是卷积核大小，P是填充，S是步长。…（可先想：哪一选项与该句直接矛盾？）",
      "options": [
        {
          "id": "class-08-cnn-q6-A",
          "text": "输出空间尺寸按有效卷积公式 \\(\\lfloor\\frac{H-K+2P}{S}\\rfloor+1\\)（高、宽各自计算），输出通道数等于卷积核个数（本题为 10）。",
          "isCorrect": true,
          "rationale": "输出尺寸公式:，通道数等于卷积核个数(10)。因此输出 。 其中，其中H是输入高度，K是卷积核大小，P是填充，S是步长。"
        },
        {
          "id": "class-08-cnn-q6-B",
          "text": "输出通道数恒等于输入通道数 \\(C\\)，与卷积核个数无关（混淆了深度可分离卷积与常规卷积）。",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「对于一个输入特征图尺寸为」「通道数」不一致；而 A 才覆盖「输出尺寸公式:，通道数等于卷积核个数(10)。因此输出 。 其中，其中H是输入高度，K是卷积核大小，P是填充，S是步长。」这层判断。"
        },
        {
          "id": "class-08-cnn-q6-C",
          "text": "空间尺寸保持不变且与核大小 \\(K\\)、步长 \\(S\\) 无关（忽略有效卷积对边界的裁剪）。",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 空间尺寸保持不变且与核大小 \\(K\\)、步长 \\(S\\) 无关（忽略有效卷积对边界的裁剪）。会引入多余假设或跳过关键前提；请以「输出尺寸公式:，通道数等于卷积核个数(10)。因此输出 。 其中，其中H是输入高度，K是卷积核大小，P是填充，S是步长。」为轴对照 A。"
        },
        {
          "id": "class-08-cnn-q6-D",
          "text": "仅由批大小与学习率决定，与输入特征图空间尺寸无关。",
          "isCorrect": false,
          "rationale": "仅由批大小与学习率决定，与输入特征图空间尺寸无关。更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「对于一个输入特征图尺寸为」「通道数」不一致。请以解析「输出尺寸公式:，通道数等于卷积核个数(10)。因此输出 。 其中，其中H是输入高度，K是卷积核大小，P是填充，S是步长。」锁定 A。"
        }
      ],
      "sourceSnippet": "输出尺寸公式:，通道数等于卷积核个数(10)。因此输出 。 其中，其中H是输入高度，K是卷积核大小，P是填充，S是步长。"
    },
    {
      "id": "class-08-cnn-q7",
      "number": 7,
      "kind": "single",
      "question": "为了在卷积后保持图像尺寸不变，常用的技术是?",
      "hint": "”…（可先想：哪一选项与该句直接矛盾？）",
      "options": [
        {
          "id": "class-08-cnn-q7-A",
          "text": "增加步幅",
          "isCorrect": false,
          "rationale": "增加步幅侧重的是另一个机制或层级：与材料中强调的「为了在卷积后保持图像尺寸不变」「常用的技术是」不一致；解析核心是「PPT:“为避免卷积之后图片尺寸变小，通常会在图片的外围进行填充操作。”」，因此更合适的是 C（填充(Padding)）。"
        },
        {
          "id": "class-08-cnn-q7-B",
          "text": "使用更大的卷积核",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「为了在卷积后保持图像尺寸不变」「常用的技术是」不一致；而 C 才覆盖「PPT:“为避免卷积之后图片尺寸变小，通常会在图片的外围进行填充操作。”」这层判断。"
        },
        {
          "id": "class-08-cnn-q7-C",
          "text": "填充(Padding)",
          "isCorrect": true,
          "rationale": "PPT:“为避免卷积之后图片尺寸变小，通常会在图片的外围进行填充操作。”"
        },
        {
          "id": "class-08-cnn-q7-D",
          "text": "使用池化层",
          "isCorrect": false,
          "rationale": "使用池化层更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「为了在卷积后保持图像尺寸不变」「常用的技术是」不一致。请以解析「PPT:“为避免卷积之后图片尺寸变小，通常会在图片的外围进行填充操作。”」锁定 C。"
        }
      ],
      "sourceSnippet": "PPT:“为避免卷积之后图片尺寸变小，通常会在图片的外围进行填充操作。”"
    },
    {
      "id": "class-08-cnn-q8",
      "number": 8,
      "kind": "single",
      "question": "步幅(Stride)为2，卷积核3×3，填充为1，输入32×32，输出特征图尺寸为?",
      "hint": "所以16×16。…（可先想：哪一选项与该句直接矛盾？）",
      "options": [
        {
          "id": "class-08-cnn-q8-A",
          "text": "32×32",
          "isCorrect": false,
          "rationale": "32×32侧重的是另一个机制或层级：与材料中强调的「卷积核」「填充为」不一致；解析核心是「公式:((32-3+2×1)/2)+1 = (31/2)+1 = 15.5向下取整?实际PPT未给公式，但常见计算为floor((32-3+2)/2)+1 = floor(31/2)+1 = 15+1=16。所以16×16。」，因此更合适的是 B（16×16）。"
        },
        {
          "id": "class-08-cnn-q8-B",
          "text": "16×16",
          "isCorrect": true,
          "rationale": "公式:((32-3+2×1)/2)+1 = (31/2)+1 = 15.5向下取整?实际PPT未给公式，但常见计算为floor((32-3+2)/2)+1 = floor(31/2)+1 = 15+1=16。所以16×16。"
        },
        {
          "id": "class-08-cnn-q8-C",
          "text": "31×31",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 31×31会引入多余假设或跳过关键前提；请以「公式:((32-3+2×1)/2)+1 = (31/2)+1 = 15.5向下取整?实际PPT未给公式，但常见计算为floor((32-3+2)/2)+1 = floor(31/2)+1 = 15+…」为轴对照 B。"
        },
        {
          "id": "class-08-cnn-q8-D",
          "text": "15×15",
          "isCorrect": false,
          "rationale": "15×15更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「卷积核」「填充为」不一致。请以解析「公式:((32-3+2×1)/2)+1 = (31/2)+1 = 15.5向下取整?实际PPT未给公式，但常见计算为floor((32-3+2)/2)+1 = floor(31/2)+1 = 15+1=16。所以16×16。」锁定 B。"
        }
      ],
      "sourceSnippet": "公式:((32-3+2×1)/2)+1 = (31/2)+1 = 15.5向下取整?实际PPT未给公式，但常见计算为floor((32-3+2)/2)+1 = floor(31/2)+1 = 15+1=16。所以16×16。"
    },
    {
      "id": "class-08-cnn-q9",
      "number": 9,
      "kind": "single",
      "question": "感受野(Receptive Field)是指?",
      "hint": "PPT定义:“输出特征图上的像素点所能感受到的输入图像范围”。",
      "options": [
        {
          "id": "class-08-cnn-q9-A",
          "text": "卷积核的大小",
          "isCorrect": false,
          "rationale": "卷积核的大小侧重的是另一个机制或层级：与材料中强调的「感受野」「输出特征图上的像素点所能感受到的输入图像范围」不一致；解析核心是「PPT定义:“输出特征图上的像素点所能感受到的输入图像范围”。」，因此更合适的是 B（输出特征图上一个像素点对应的输入图像区域大小）。"
        },
        {
          "id": "class-08-cnn-q9-B",
          "text": "输出特征图上一个像素点对应的输入图像区域大小",
          "isCorrect": true,
          "rationale": "PPT定义:“输出特征图上的像素点所能感受到的输入图像范围”。 请回到题干限定条件：把「外延更大的表述」或「跳跃的前提」逐项排除后再选。"
        },
        {
          "id": "class-08-cnn-q9-C",
          "text": "池化窗口的大小",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 池化窗口的大小会引入多余假设或跳过关键前提；请以「PPT定义:“输出特征图上的像素点所能感受到的输入图像范围”。」为轴对照 B。"
        },
        {
          "id": "class-08-cnn-q9-D",
          "text": "全连接层的神经元数量",
          "isCorrect": false,
          "rationale": "全连接层的神经元数量更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「感受野」「输出特征图上的像素点所能感受到的输入图像范围」不一致。请以解析「PPT定义:“输出特征图上的像素点所能感受到的输入图像范围”。」锁定 B。"
        }
      ],
      "sourceSnippet": "PPT定义:“输出特征图上的像素点所能感受到的输入图像范围”。"
    },
    {
      "id": "class-08-cnn-q10",
      "number": 10,
      "kind": "single",
      "question": "两层3×3卷积(步长1，无填充)叠加后的感受野大小是多少?",
      "hint": "PPT示例图显示:两层3×3卷积的感受野是5×5。",
      "options": [
        {
          "id": "class-08-cnn-q10-A",
          "text": "3×3",
          "isCorrect": false,
          "rationale": "3×3侧重的是另一个机制或层级：与材料中强调的「无填充」「叠加后的感受野大小是多少」不一致；解析核心是「PPT示例图显示:两层3×3卷积的感受野是5×5。」，因此更合适的是 B（5×5）。"
        },
        {
          "id": "class-08-cnn-q10-B",
          "text": "5×5",
          "isCorrect": true,
          "rationale": "PPT示例图显示:两层3×3卷积的感受野是5×5。 请回到题干限定条件：把「外延更大的表述」或「跳跃的前提」逐项排除后再选。"
        },
        {
          "id": "class-08-cnn-q10-C",
          "text": "7×7",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 7×7会引入多余假设或跳过关键前提；请以「PPT示例图显示:两层3×3卷积的感受野是5×5。」为轴对照 B。"
        },
        {
          "id": "class-08-cnn-q10-D",
          "text": "9×9",
          "isCorrect": false,
          "rationale": "9×9更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「无填充」「叠加后的感受野大小是多少」不一致。请以解析「PPT示例图显示:两层3×3卷积的感受野是5×5。」锁定 B。"
        }
      ],
      "sourceSnippet": "PPT示例图显示:两层3×3卷积的感受野是5×5。"
    },
    {
      "id": "class-08-cnn-q11",
      "number": 11,
      "kind": "single",
      "question": "池化层的主要作用不包括以下哪项?",
      "hint": "非线性由激活函数引入，池化本身是线性操作(取最大或平均)。…（可先想：哪一选项与该句直接矛盾？）",
      "options": [
        {
          "id": "class-08-cnn-q11-A",
          "text": "压缩图片大小，减少计算量",
          "isCorrect": false,
          "rationale": "压缩图片大小，减少计算量侧重的是另一个机制或层级：与材料中强调的「池化层的主要作用不包括以下哪项」「说明池化层通过降采样压缩大小」不一致；解析核心是「PPT说明池化层通过降采样压缩大小，减少计算量，提升感受野。非线性由激活函数引入，池化本身是线性操作(取最大或平均)。」，因此更合适的是 C（引入非线性）。"
        },
        {
          "id": "class-08-cnn-q11-B",
          "text": "提升卷积核的感受野",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「池化层的主要作用不包括以下哪项」「说明池化层通过降采样压缩大小」不一致；而 C 才覆盖「PPT说明池化层通过降采样压缩大小，减少计算量，提升感受野。非线性由激活函数引入，池化本身是线性操作(取最大或平均)。」这层判断。"
        },
        {
          "id": "class-08-cnn-q11-C",
          "text": "引入非线性",
          "isCorrect": true,
          "rationale": "PPT说明池化层通过降采样压缩大小，减少计算量，提升感受野。非线性由激活函数引入，池化本身是线性操作(取最大或平均)。"
        },
        {
          "id": "class-08-cnn-q11-D",
          "text": "降采样",
          "isCorrect": false,
          "rationale": "降采样更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「池化层的主要作用不包括以下哪项」「说明池化层通过降采样压缩大小」不一致。请以解析「PPT说明池化层通过降采样压缩大小，减少计算量，提升感受野。非线性由激活函数引入，池化本身是线性操作(取最大或平均)。」锁定 C。"
        }
      ],
      "sourceSnippet": "PPT说明池化层通过降采样压缩大小，减少计算量，提升感受野。非线性由激活函数引入，池化本身是线性操作(取最大或平均)。"
    },
    {
      "id": "class-08-cnn-q12",
      "number": 12,
      "kind": "single",
      "question": "以下哪种池化方法选择区域中的最大值?",
      "hint": "PPT明确指出最大池化是“选择区域中的最大值”。",
      "options": [
        {
          "id": "class-08-cnn-q12-A",
          "text": "均值池化",
          "isCorrect": false,
          "rationale": "均值池化侧重的是另一个机制或层级：与材料中强调的「明确指出最大池化是」「选择区域中的最大值」不一致；解析核心是「PPT明确指出最大池化是“选择区域中的最大值”。」，因此更合适的是 B（最大池化）。"
        },
        {
          "id": "class-08-cnn-q12-B",
          "text": "最大池化",
          "isCorrect": true,
          "rationale": "PPT明确指出最大池化是“选择区域中的最大值”。 请回到题干限定条件：把「外延更大的表述」或「跳跃的前提」逐项排除后再选。"
        },
        {
          "id": "class-08-cnn-q12-C",
          "text": "全局平均池化",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 全局平均池化会引入多余假设或跳过关键前提；请以「PPT明确指出最大池化是“选择区域中的最大值”。」为轴对照 B。"
        },
        {
          "id": "class-08-cnn-q12-D",
          "text": "随机池化",
          "isCorrect": false,
          "rationale": "随机池化更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「明确指出最大池化是」「选择区域中的最大值」不一致。请以解析「PPT明确指出最大池化是“选择区域中的最大值”。」锁定 B。"
        }
      ],
      "sourceSnippet": "PPT明确指出最大池化是“选择区域中的最大值”。"
    },
    {
      "id": "class-08-cnn-q13",
      "number": 13,
      "kind": "single",
      "question": "在CNN中，全连接层之前通常需要将多维特征图进行什么操作?",
      "hint": "”…（可先想：哪一选项与该句直接矛盾？）",
      "options": [
        {
          "id": "class-08-cnn-q13-A",
          "text": "填充",
          "isCorrect": false,
          "rationale": "填充侧重的是另一个机制或层级：与材料中强调的「全连接层之前通常需要将多维特征图进行什么操作」「在全连接层之前」不一致；解析核心是「“在全连接层之前，需要将多维的向量展平为一维的向量。”」，因此更合适的是 C（展平(Flatten)）。"
        },
        {
          "id": "class-08-cnn-q13-B",
          "text": "池化",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「全连接层之前通常需要将多维特征图进行什么操作」「在全连接层之前」不一致；而 C 才覆盖「“在全连接层之前，需要将多维的向量展平为一维的向量。”」这层判断。"
        },
        {
          "id": "class-08-cnn-q13-C",
          "text": "展平(Flatten)",
          "isCorrect": true,
          "rationale": "“在全连接层之前，需要将多维的向量展平为一维的向量。” 请回到题干限定条件：把「外延更大的表述」或「跳跃的前提」逐项排除后再选。"
        },
        {
          "id": "class-08-cnn-q13-D",
          "text": "卷积",
          "isCorrect": false,
          "rationale": "卷积更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「全连接层之前通常需要将多维特征图进行什么操作」「在全连接层之前」不一致。请以解析「“在全连接层之前，需要将多维的向量展平为一维的向量。”」锁定 C。"
        }
      ],
      "sourceSnippet": "“在全连接层之前，需要将多维的向量展平为一维的向量。”"
    },
    {
      "id": "class-08-cnn-q14",
      "number": 14,
      "kind": "single",
      "question": "对于图像分类任务，CNN的输出层通常使用什么结构?",
      "hint": "PPT“图像分类”任务中明确:“是否需要全连接层(聚合信息):是”，且图中显示全连接层输出类别。",
      "options": [
        {
          "id": "class-08-cnn-q14-A",
          "text": "卷积层",
          "isCorrect": false,
          "rationale": "卷积层侧重的是另一个机制或层级：与材料中强调的「对于图像分类任务」「的输出层通常使用什么结构」不一致；解析核心是「PPT“图像分类”任务中明确:“是否需要全连接层(聚合信息):是”，且图中显示全连接层输出类别。」，因此更合适的是 C（全连接层）。"
        },
        {
          "id": "class-08-cnn-q14-B",
          "text": "池化层",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「对于图像分类任务」「的输出层通常使用什么结构」不一致；而 C 才覆盖「PPT“图像分类”任务中明确:“是否需要全连接层(聚合信息):是”，且图中显示全连接层输出类别。」这层判断。"
        },
        {
          "id": "class-08-cnn-q14-C",
          "text": "全连接层",
          "isCorrect": true,
          "rationale": "PPT“图像分类”任务中明确:“是否需要全连接层(聚合信息):是”，且图中显示全连接层输出类别。"
        },
        {
          "id": "class-08-cnn-q14-D",
          "text": "仅激活函数",
          "isCorrect": false,
          "rationale": "仅激活函数更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「对于图像分类任务」「的输出层通常使用什么结构」不一致。请以解析「PPT“图像分类”任务中明确:“是否需要全连接层(聚合信息):是”，且图中显示全连接层输出类别。」锁定 C。"
        }
      ],
      "sourceSnippet": "PPT“图像分类”任务中明确:“是否需要全连接层(聚合信息):是”，且图中显示全连接层输出类别。"
    },
    {
      "id": "class-08-cnn-q15",
      "number": 15,
      "kind": "single",
      "question": "对于图像分割任务(如语义分割)，通常不需要以下哪个组件?",
      "hint": "正确答案是 C. 全连接层。…（可先想：哪一选项与该句直接矛盾？）",
      "options": [
        {
          "id": "class-08-cnn-q15-A",
          "text": "卷积层",
          "isCorrect": false,
          "rationale": "卷积层侧重的是另一个机制或层级：与材料中强调的「对于图像分割任务」「如语义分割」不一致；解析核心是「对于图像分割任务(如语义分割)，通常不需要全连接层，因为全连接层会破坏空间结构，而分割任务需要保留像素级的空间信息。正确答案是 C. 全连接层。」，因此更合适的是 C（全连接层）。"
        },
        {
          "id": "class-08-cnn-q15-B",
          "text": "池化层",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「对于图像分割任务」「如语义分割」不一致；而 C 才覆盖「对于图像分割任务(如语义分割)，通常不需要全连接层，因为全连接层会破坏空间结构，而分割任务需要保留像素级的空间信息。正确答案是 C. 全连接层。」这层判断。"
        },
        {
          "id": "class-08-cnn-q15-C",
          "text": "全连接层",
          "isCorrect": true,
          "rationale": "对于图像分割任务(如语义分割)，通常不需要全连接层，因为全连接层会破坏空间结构，而分割任务需要保留像素级的空间信息。正确答案是 C. 全连接层。"
        },
        {
          "id": "class-08-cnn-q15-D",
          "text": "激活函数",
          "isCorrect": false,
          "rationale": "激活函数更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「对于图像分割任务」「如语义分割」不一致。请以解析「对于图像分割任务(如语义分割)，通常不需要全连接层，因为全连接层会破坏空间结构，而分割任务需要保留像素级的空间信息。正确答案是 C. 全连接层。」锁定 C。"
        }
      ],
      "sourceSnippet": "对于图像分割任务(如语义分割)，通常不需要全连接层，因为全连接层会破坏空间结构，而分割任务需要保留像素级的空间信息。正确答案是 C. 全连接层。"
    },
    {
      "id": "class-08-cnn-q16",
      "number": 16,
      "kind": "single",
      "question": "下列哪个计算机视觉任务需要输出矩形框坐标和类别标签?",
      "hint": "目标检测任务需要定位图像中的物体，通常以矩形框(bounding box)的形式输出其位置，并给出对应的类别标签。",
      "options": [
        {
          "id": "class-08-cnn-q16-A",
          "text": "图像分类",
          "isCorrect": false,
          "rationale": "图像分类侧重的是另一个机制或层级：与材料中强调的「下列哪个计算机视觉任务需要输出矩形框坐标和类别标签」「目标检测任务需要定位图像中的物体」不一致；解析核心是「目标检测任务需要定位图像中的物体，通常以矩形框(bounding box)的形式输出其位置，并给出对应的类别标签。」，因此更合适的是 B（目标检测）。"
        },
        {
          "id": "class-08-cnn-q16-B",
          "text": "目标检测",
          "isCorrect": true,
          "rationale": "目标检测任务需要定位图像中的物体，通常以矩形框(bounding box)的形式输出其位置，并给出对应的类别标签。"
        },
        {
          "id": "class-08-cnn-q16-C",
          "text": "图像分割",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 图像分割会引入多余假设或跳过关键前提；请以「目标检测任务需要定位图像中的物体，通常以矩形框(bounding box)的形式输出其位置，并给出对应的类别标签。」为轴对照 B。"
        },
        {
          "id": "class-08-cnn-q16-D",
          "text": "风格迁移",
          "isCorrect": false,
          "rationale": "风格迁移更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「下列哪个计算机视觉任务需要输出矩形框坐标和类别标签」「目标检测任务需要定位图像中的物体」不一致。请以解析「目标检测任务需要定位图像中的物体，通常以矩形框(bounding box)的形式输出其位置，并给出对应的类别标签。」锁定 B。"
        }
      ],
      "sourceSnippet": "目标检测任务需要定位图像中的物体，通常以矩形框(bounding box)的形式输出其位置，并给出对应的类别标签。"
    },
    {
      "id": "class-08-cnn-q17",
      "number": 17,
      "kind": "single",
      "question": "卷积神经网络除了计算机视觉，还可以应用于哪个领域?",
      "hint": "虽然CNN也可用于自然语言处理(如文本分类)和时间序列预测，但选项B中“仅文本”的表述不够准确(NLP还包括语音等)，而选项C说“只能处理图像”明显错误，选项D与CNN无关。……（可先想：哪一选项与该句直接矛盾？）",
      "options": [
        {
          "id": "class-08-cnn-q17-A",
          "text": "语音处理(将时频谱当图像处理)",
          "isCorrect": true,
          "rationale": "卷积神经网络擅长处理具有网格结构的数据，语音信号的时频谱图可视为二维图像，因此CNN可直接应用于语音识别等任务。虽然CNN也可用于自然语言处理(如文本分类)和时间序列预测，但选项B中“仅文本”的表述不够准确(NLP还包括语音等)，而选项C说“只能处理图像”明显错误，选项D与CNN无关。因此，A是最直接且常见的应用。"
        },
        {
          "id": "class-08-cnn-q17-B",
          "text": "自然语言处理(仅文本)",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「卷积神经网络除了计算机视觉」「还可以应用于哪个领域」不一致；而 A 才覆盖「卷积神经网络擅长处理具有网格结构的数据，语音信号的时频谱图可视为二维图像，因此CNN可直接应用于语音识别等任务。虽然CNN也可用于自然语言处理(如文本分类)和时间序列预测，但选项B中“仅文本”的表述不够准确(NLP还包括语音等)，而选项C说“只能处理图像”明显错误，选项D与CNN无关。因此，A是最直接且常见的应用。」这层判断。"
        },
        {
          "id": "class-08-cnn-q17-C",
          "text": "时间序列预测(只能处理图像)",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 时间序列预测(只能处理图像)会引入多余假设或跳过关键前提；请以「卷积神经网络擅长处理具有网格结构的数据，语音信号的时频谱图可视为二维图像，因此CNN可直接应用于语音识别等任务。虽然CNN也可用于自然语言处理(如文本分类)和时间序列预测，但选项B中“仅文本”的表述…」为轴对照 A。"
        },
        {
          "id": "class-08-cnn-q17-D",
          "text": "数据库管理",
          "isCorrect": false,
          "rationale": "数据库管理更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「卷积神经网络除了计算机视觉」「还可以应用于哪个领域」不一致。请以解析「卷积神经网络擅长处理具有网格结构的数据，语音信号的时频谱图可视为二维图像，因此CNN可直接应用于语音识别等任务。虽然CNN也可用于自然语言处理(如文本分类)和时间序列预测，但选项B中“仅文本”的表述不够准确(NLP还包括语音等)，而选项C…」锁定 A。"
        }
      ],
      "sourceSnippet": "卷积神经网络擅长处理具有网格结构的数据，语音信号的时频谱图可视为二维图像，因此CNN可直接应用于语音识别等任务。虽然CNN也可用于自然语言处理(如文本分类)和时间序列预测，但选项B中“仅文本”的表述不够准确(NLP还包括语音等)，而选项C说“只能处理图像”明显错误，选项D与CNN无关。因此，A是最直接且常见的应用。"
    },
    {
      "id": "class-08-cnn-q18",
      "number": 18,
      "kind": "single",
      "question": "以下哪个是 LeNet-5 网络的主要贡献?",
      "hint": "ReLU 流行于 AlexNet(2012)，残差连接是 ResNet(2015)，Dropout 在 AlexNet 中应用。…（可先想：哪一选项与该句直接矛盾？）",
      "options": [
        {
          "id": "class-08-cnn-q18-A",
          "text": "首次使用 ReLU 激活函数",
          "isCorrect": false,
          "rationale": "首次使用 ReLU 激活函数侧重的是另一个机制或层级：与材料中强调的「网络的主要贡献」「开创性地使用」不一致；解析核心是「LeNet-5(1998)开创性地使用“卷积+池化+全连接”结构用于手写数字识别。ReLU 流行于 AlexNet(2012)，残差连接是 ResNet(2015)，Dropout 在 AlexNet 中应用。」，因此更合适的是 B（首次将卷积和池化相结合用于手写数字识别）。"
        },
        {
          "id": "class-08-cnn-q18-B",
          "text": "首次将卷积和池化相结合用于手写数字识别",
          "isCorrect": true,
          "rationale": "LeNet-5(1998)开创性地使用“卷积+池化+全连接”结构用于手写数字识别。ReLU 流行于 AlexNet(2012)，残差连接是 ResNet(2015)，Dropout 在 AlexNet 中应用。"
        },
        {
          "id": "class-08-cnn-q18-C",
          "text": "引入残差连接",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 引入残差连接会引入多余假设或跳过关键前提；请以「LeNet-5(1998)开创性地使用“卷积+池化+全连接”结构用于手写数字识别。ReLU 流行于 AlexNet(2012)，残差连接是 ResNet(2015)，Dropout 在 AlexNe…」为轴对照 B。"
        },
        {
          "id": "class-08-cnn-q18-D",
          "text": "使用 Dropout 正则化",
          "isCorrect": false,
          "rationale": "使用 Dropout 正则化更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「网络的主要贡献」「开创性地使用」不一致。请以解析「LeNet-5(1998)开创性地使用“卷积+池化+全连接”结构用于手写数字识别。ReLU 流行于 AlexNet(2012)，残差连接是 ResNet(2015)，Dropout 在 AlexNet 中应用。」锁定 B。"
        }
      ],
      "sourceSnippet": "LeNet-5(1998)开创性地使用“卷积+池化+全连接”结构用于手写数字识别。ReLU 流行于 AlexNet(2012)，残差连接是 ResNet(2015)，Dropout 在 AlexNet 中应用。"
    },
    {
      "id": "class-08-cnn-q19",
      "number": 19,
      "kind": "single",
      "question": "在卷积神经网络中，填充(Padding)的主要目的不包括以下哪项?",
      "hint": "它可以保持尺寸(如 Same Padding)、保留边缘信息、控制输出大小。…（可先想：哪一选项与该句直接矛盾？）",
      "options": [
        {
          "id": "class-08-cnn-q19-A",
          "text": "保持输入输出空间尺寸一致",
          "isCorrect": false,
          "rationale": "保持输入输出空间尺寸一致侧重的是另一个机制或层级：与材料中强调的「在卷积神经网络中」「的主要目的不包括以下哪项」不一致；解析核心是「填充在输入周围补零，不增加可训练参数。它可以保持尺寸(如 Same Padding)、保留边缘信息、控制输出大小。」，因此更合适的是 C（增加模型参数数量）。"
        },
        {
          "id": "class-08-cnn-q19-B",
          "text": "避免边缘信息丢失",
          "isCorrect": false,
          "rationale": "从选项 B 的文面看不出与解析链条的一一对应：与材料中强调的「在卷积神经网络中」「的主要目的不包括以下哪项」不一致；而 C 才覆盖「填充在输入周围补零，不增加可训练参数。它可以保持尺寸(如 Same Padding)、保留边缘信息、控制输出大小。」这层判断。"
        },
        {
          "id": "class-08-cnn-q19-C",
          "text": "增加模型参数数量",
          "isCorrect": true,
          "rationale": "填充在输入周围补零，不增加可训练参数。它可以保持尺寸(如 Same Padding)、保留边缘信息、控制输出大小。"
        },
        {
          "id": "class-08-cnn-q19-D",
          "text": "控制特征图大小",
          "isCorrect": false,
          "rationale": "控制特征图大小更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「在卷积神经网络中」「的主要目的不包括以下哪项」不一致。请以解析「填充在输入周围补零，不增加可训练参数。它可以保持尺寸(如 Same Padding)、保留边缘信息、控制输出大小。」锁定 C。"
        }
      ],
      "sourceSnippet": "填充在输入周围补零，不增加可训练参数。它可以保持尺寸(如 Same Padding)、保留边缘信息、控制输出大小。"
    },
    {
      "id": "class-08-cnn-q20",
      "number": 20,
      "kind": "single",
      "question": "卷积神经网络特别适合处理具有哪种特性的数据?",
      "hint": "先抓题干中的限定条件与核心术语，再用排除法对照课程定义；详见判题后解析与本质知识点纲要。",
      "options": [
        {
          "id": "class-08-cnn-q20-A",
          "text": "时序依赖性",
          "isCorrect": false,
          "rationale": "时序依赖性侧重的是另一个机制或层级：与材料中强调的「卷积神经网络特别适合处理具有哪种特性的数据」不一致；解析核心是「课程定义的结论与题干场景」，因此更合适的是 B（空间平移不变性）。"
        },
        {
          "id": "class-08-cnn-q20-B",
          "text": "空间平移不变性",
          "isCorrect": true,
          "rationale": "本题要求选择在限定条件下成立的表述。「空间平移不变性」与题干一致。 请回到题干限定条件：把「外延更大的表述」或「跳跃的前提」逐项排除后再选。"
        },
        {
          "id": "class-08-cnn-q20-C",
          "text": "完全随机性",
          "isCorrect": false,
          "rationale": "易混点往往在概念边界：此处 完全随机性会引入多余假设或跳过关键前提；请以「卷积神经网络特别适合处理具有哪种特性的数据?」为轴对照 B。"
        },
        {
          "id": "class-08-cnn-q20-D",
          "text": "稀疏性B 解析:卷积神经网络(CNN)的核心设计——局部连接和权值共享，使其天然对输入的空间平移具有不变性。即，图像中的目标即使发生平移，卷积核仍能在不同位置提取到相同的特征，从而保证识别能力。 PPT 最后一页明确指出:“卷积网络也适用于处理其他具有空间平移不变性的数据”。 其他选项: A 时序依赖性:更适合循环神经网络(RNN)处理; C 完全随机性:CNN 无法从随机数据中学习规律; D 稀疏性:CNN 不依赖数据稀疏性，虽然卷积本身可稀疏，但不是其本",
          "isCorrect": false,
          "rationale": "稀疏性B 解析:卷积神经网络(CNN)的核心设计——局部连接和权值共享，使其天然对输入的空间平移具有不变性。即…更像干扰项的常见套路（扩大/偷换适用范围）；与材料中强调的「卷积神经网络特别适合处理具有哪种特性的数据」不一致。请以解析「课程定义的结论与题干场景」锁定 B。"
        }
      ],
      "sourceSnippet": ""
    }
  ]
}