<?xml version="1.0" encoding="utf-8"?><feed xmlns="http://www.w3.org/2005/Atom" ><generator uri="https://jekyllrb.com/" version="3.10.0">Jekyll</generator><link href="/feed.xml" rel="self" type="application/atom+xml" /><link href="/" rel="alternate" type="text/html" /><updated>2026-04-19T02:06:05+08:00</updated><id>/feed.xml</id><title type="html">Silverashの隙间</title><subtitle>Attention Is All You Need!</subtitle><entry><title type="html">ADAVIB</title><link href="/paper/2026/04/10/Mitigating-Hallucinations-in-Large-Vision-Language-Models-by-Adaptively-Constraining-Information-low.html" rel="alternate" type="text/html" title="ADAVIB" /><published>2026-04-10T15:02:07+08:00</published><updated>2026-04-10T15:02:07+08:00</updated><id>/paper/2026/04/10/Mitigating-Hallucinations-in-Large-Vision-Language-Models-by-Adaptively-Constraining-Information-low</id><content type="html" xml:base="/paper/2026/04/10/Mitigating-Hallucinations-in-Large-Vision-Language-Models-by-Adaptively-Constraining-Information-low.html"><![CDATA[<blockquote>
  <p>AAAI 2025论文，方法部分感觉有点难理解（导师说方法像扩散模型，之后去看一下）</p>
</blockquote>

<h2 id="背景">背景</h2>

<p>物体幻觉阻碍了 LVLMs 在需要精确判断的场景（医疗诊断、自动驾驶等）下的可靠性和适用性。</p>

<h3 id="问题">问题</h3>

<p>软视觉token映射到大语言模型的词嵌入空间时，模型对无关视觉特征产生了过度自信</p>

<h2 id="本文贡献">本文贡献</h2>

<p>1、首次用变分信息瓶颈（VIB）原理作为正则化技术来缓解 LVLM 中的物体幻觉问题</p>

<p>2、提出了一种名为 ADAVIB 的自适应噪声控制策略 。该策略基于相似度分布的熵来衡量样本的过度自信程度，可以动态地调整注入的随机噪声强度</p>

<h2 id="方法">方法</h2>

<p>普通的LVLM步骤是，直接把图像解码器生成的特征向量v通过projector (MLP) 映射到z，z就是软视觉token，然后嵌入到输入的提示词token中作为输入进入到大语言模型中进行处理，本论文提出了一种新的方法叫ADAVIB，主要公式minL<sub>vib</sub>是目标函数，前一项表达的是压缩项，也可以命名为正则项，主要作用是限制z从v带走过多信息；第二大项是预测项，主要是生成任务本身的损失，作用是保证压缩后的z能生成正确的答案y。</p>
<h3 id="对于主要公式minlvib的解释">对于主要公式(minL<sub>vib</sub>)的解释</h3>
<p>β是一个权重系数，论文里叫Lagrange multiplier，主要是用来平衡压缩和预测项，如果β越大，那么约束更强，信息流更容易受限；相反如果β小则能保留更多信息，β会根据熵做自适应调整。
p<sub>Θ</sub>（z|v）是后验分布，论文里将它建模为一个高斯分布，μ是均值∑是方差，大白话讲就是模型不算直接输出一个固定的z，而是先输出z大概位置和波动大小，再从这个分布里进行采样。r（z）是先验分布，是不依赖具体输入v的参考分布，对于后验分布来说是一个约束目标。</p>

<p>最后生成的z是经过重参数化采样得到的，μ和∑分别是后验分布的均值和方差，e是标准的高斯噪声，然后把标准高斯噪声与后验分布的方差进行逐元素相乘（论文中注入噪声最直接体现在公式 (9)。作者将 visual token 写成公式9，∑控制噪声幅度，因此 z 不是确定性映射结果，而是带随机扰动的压缩表示。这种噪声注入对应 VIB 中的信息压缩过程，用来限制无关信息流入 LLM。）</p>

<h2 id="实验">实验</h2>

<p>所用数据集：</p>
<ul>
  <li>MSCOCO</li>
  <li>CHAIR</li>
  <li>POPE
并用Accuracy和F1进行评估</li>
</ul>

<p>MiniGPT-4和LLaVa-1.5作为backbone</p>

<h2 id="结果">结果</h2>

<p>在MiniGPT-4 和 LLaVa-1.5上，都能稳定降低 object hallucination，并且在两个基准上都优于普通微调和多种强基线；在 MSCOCO 上，ADAVIB 显著降低了 CHAIR_S 和 CHAIR_I，说明生成描述里“图中不存在物体”的现象更少，在 POPE 上也整体提升了 Accuracy 和 F1，在 <strong>Popular</strong> split 上提升更明显，证明它对高频物体共现带来的统计偏差抑制更有效。消融实验中证明<strong>adaptive β 和 **reparameterization</strong> 都是有效组件，而机理分析图说明 ADAVIB 会让 visual token 到 LLM 词空间的相似度分布更平滑、熵更高，最后的敏感性实验也表明，压缩强度过大或过小都会变差，自适应控制优于固定设置</p>]]></content><author><name></name></author><category term="paper" /><category term="AAAI" /><category term="幻觉" /><category term="VIB" /><summary type="html"><![CDATA[AAAI 2025论文，方法部分感觉有点难理解（导师说方法像扩散模型，之后去看一下）]]></summary></entry><entry><title type="html">Micro-Macro Retrieval 笔记</title><link href="/paper/2026/03/25/Micro-Macro-Retrieval.html" rel="alternate" type="text/html" title="Micro-Macro Retrieval 笔记" /><published>2026-03-25T18:50:51+08:00</published><updated>2026-03-25T19:06:46+08:00</updated><id>/paper/2026/03/25/Micro-Macro-Retrieval</id><content type="html" xml:base="/paper/2026/03/25/Micro-Macro-Retrieval.html"><![CDATA[<blockquote>
  <p>ICLR 2026的论文 通过外部环境缓解幻觉，还有打标签</p>
</blockquote>

<h2 id="背景">背景</h2>

<p>现有的 RAG 模型虽然能够通过引入外部知识库来弥补模型的参数、记忆不足，但是再长文本语境下依旧面临 Lost in Lengthy Context 问题。</p>

<h3 id="问题">问题</h3>

<p>1、<strong>信息冗余与捕获困难</strong>：外部检索得到的结果经常包含很多无关信息，这种冗余的输入会导致模型在生成输出的过程中难以精准定位真正的关键信息。</p>

<p>2、<strong>长推理链导致的遗忘</strong>：在生成长篇大论的过程中由于上下文长度的限制可能会导致模型忘记推理早期获得的中间结果，最终导致结论出现逻辑断裂或者事实漂移。</p>

<h2 id="本文贡献">本文贡献</h2>

<p>对比现有的多轮检索框架（ReAct、Self-RAG等）不同，M2R不仅仅检索外部文档（宏观），还通过在推理过程中建立 Key Information Repository 来让模型对自身生成的证据再利用。在生成回答的过程中，M2R会立即插入检索到的关键事实（微观），体现了从”粗粒度文档注入”到”细粒度事实锚定”的思想。</p>

<h2 id="方法">方法</h2>

<p>边检索边生成</p>

<h3 id="双阶段推理结构">双阶段推理结构</h3>

<p>推理过程被明确划分为两个阶段，通过特定的标签进行管理</p>

<h4 id="思维阶段">思维阶段</h4>

<p>1、宏观检索（Macro Retrieval）：&lt; macro_tool_call &gt; 标签通过向外部 browser 或者知识库发起多轮 query，获取粗粒度背景证据。</p>

<p>2、关键信息保存（Key Information Saving）：模型在推理过程中识别出与答案直接相关的事实片段，用 &lt; key_info_save &gt; 标签以 json 格式存入 Key Information Repository。</p>

<h4 id="回答阶段">回答阶段</h4>

<p>1、微观检索（Micro Retrieval）：模型发出 &lt; micro_tool_call &gt; 标签，请求 Key Information Repository 中的信息。</p>

<p>2、微观生成：检索到的事实通过 &lt; micro_response &gt; 返回，并用 \boxed{} 标记</p>

<h3 id="基于-grpo-的rl优化">基于 GRPO 的RL优化</h3>

<p>是为了让模型学会tool call 和 利用 Key Information Repository 中的信息。</p>

<h4 id="优化目标">优化目标</h4>

<p>GRPO 不仅用于优化最终答案生成还监督模型的生成行为，包括何时调用检索、如何编写json仓库、如何在回答时引用仓库信息</p>

<h4 id="检索结果掩码retrieval-result-mask">检索结果掩码（Retrieval Result Mask）</h4>

<p>在计算 loss 时，模型仅对自身生成的 Token ，对于外部返回的检索结果，用二进制掩码mt进行剔除，为的是防止错误的信用分配，保证稳定训练。</p>

<h4 id="kl-约束">KL 约束</h4>

<p>引入了 D<sub>kl</sub> 正则化项，可以保证更新后的策略π<sub>θ</sub>不会偏离原始基座模型太远。</p>

<h3 id="自定义规则奖励模型">自定义规则奖励模型</h3>

<p>1、格式奖励：检查&lt; macro_tool_call &gt; 的使用是否合规，json 格式是否合法</p>

<p>2、答案奖励：
综合三个F1 Score：</p>
<ul>
  <li>最终答案准确性（s<sub>final</sub>）</li>
  <li>关键信息准确性（s<sub>key</sub>）</li>
  <li>一致性得分（s<sub>cons</sub>）</li>
</ul>

<h2 id="实验">实验</h2>

<ul>
  <li>四个多跳 QA 基准：Hotpot （多样化推理）、2WikiMutiHopQA（结构化推理）、MuSiQue（高难度组合推理）、Bamboogle（两步推理挑战）</li>
  <li>模型底座： Qwen2.5-3B-Instruct、Qwen2.5-7B-Instruct</li>
  <li>训练数据：MuSiQue 的训练集</li>
  <li>检索环境：基于 FlashRAG 构建</li>
  <li>底层知识库：2018.12 版本的 Wikipedia 快照</li>
</ul>

<h2 id="结果">结果</h2>

<p>1、准确性大幅提升</p>

<table>
  <thead>
    <tr>
      <th>基准测试</th>
      <th>Qwen2.5-7B-ReSearch (EM)</th>
      <th>Qwen2.5-7B-M2R (EM)</th>
      <th>提升幅度 (%)</th>
    </tr>
  </thead>
  <tbody>
    <tr>
      <td>HotpotQA</td>
      <td>43.52</td>
      <td>65.98</td>
      <td>+22.46</td>
    </tr>
    <tr>
      <td>2Wiki</td>
      <td>54.22</td>
      <td>57.01</td>
      <td>+2.79</td>
    </tr>
    <tr>
      <td>MuSiQue</td>
      <td>22.30</td>
      <td>24.12</td>
      <td>+1.82</td>
    </tr>
    <tr>
      <td>Bamboogle</td>
      <td>42.40</td>
      <td>56.89</td>
      <td>+14.49</td>
    </tr>
  </tbody>
</table>

<p>2、长上下文幻觉抑制</p>

<p>本文构造了 HotpotQA-2Q 和 HotpotQA-3Q 任务（即将多个问题合并为一个推理实例），传统 RAG 和 ReSearch 的幻觉率迅速上升，而 M2R 依旧保持在稳定的高准确率 。</p>]]></content><author><name></name></author><category term="paper" /><category term="ICLR" /><category term="幻觉" /><category term="RAG" /><summary type="html"><![CDATA[ICLR 2026的论文 通过外部环境缓解幻觉，还有打标签]]></summary></entry><entry><title type="html">见过的论文里的专有名词</title><link href="/study/2026/03/25/proper-nouns.html" rel="alternate" type="text/html" title="见过的论文里的专有名词" /><published>2026-03-25T18:50:51+08:00</published><updated>2026-03-25T18:50:51+08:00</updated><id>/study/2026/03/25/proper-nouns</id><content type="html" xml:base="/study/2026/03/25/proper-nouns.html"><![CDATA[<blockquote>
  <p>整理一下目前为止见过的论文里的专有名词，虽然可以见到再查，但是为了方便自己看，还是整理一下，持续更新。</p>
</blockquote>

<h2 id="1ml基础">1、ML基础</h2>

<table>
  <thead>
    <tr>
      <th>名词 (Term)</th>
      <th>定义 / 描述</th>
      <th>分类标签</th>
    </tr>
  </thead>
  <tbody>
    <tr>
      <td>机器学习 (Machine Learning)</td>
      <td>让系统从数据中自动学习模式并做出预测或决策，无需显式编程。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>监督学习 (Supervised Learning)</td>
      <td>使用带标签的数据训练模型，学习输入到输出的映射。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>无监督学习 (Unsupervised Learning)</td>
      <td>从未标记数据中发现结构、聚类或分布。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>半监督学习 (Semi-supervised Learning)</td>
      <td>结合少量标签数据与大量无标签数据进行训练。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>自监督学习 (Self-supervised Learning)</td>
      <td>利用数据自身构造监督信号（如掩码预测）。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>在线学习 (Online Learning)</td>
      <td>模型在数据流中逐样本更新，适应动态环境。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>离线学习 (Offline Learning)</td>
      <td>在固定数据集上训练，不与环境交互。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>迁移学习 (Transfer Learning)</td>
      <td>将在源任务上学到的知识迁移到目标任务。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>元学习 (Meta-Learning)</td>
      <td>学习如何学习，使模型能快速适应新任务。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>少样本学习 (Few-shot Learning)</td>
      <td>仅用少量示例即可泛化到新类别。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>零样本学习 (Zero-shot Learning)</td>
      <td>在未见过类别上完成任务，依赖语义描述。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>主动学习 (Active Learning)</td>
      <td>模型主动选择最有价值的样本请求标注。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>对比学习 (Contrastive Learning)</td>
      <td>通过拉近正样本、推开负样本来学习表示。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>表示学习 (Representation Learning)</td>
      <td>自动发现数据的有效特征表示。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>特征工程 (Feature Engineering)</td>
      <td>人工设计输入特征以提升模型性能。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>过拟合 (Overfitting)</td>
      <td>模型在训练集上表现好，但在新数据上泛化差。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>欠拟合 (Underfitting)</td>
      <td>模型无法捕捉数据基本模式。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>偏差-方差权衡 (Bias-Variance Tradeoff)</td>
      <td>模型误差由偏差（欠拟合）和方差（过拟合）共同决定。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>交叉验证 (Cross-Validation)</td>
      <td>评估模型泛化能力的重采样技术。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>正则化 (Regularization)</td>
      <td>通过约束模型复杂度防止过拟合（如L1/L2）。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>损失函数 (Loss Function)</td>
      <td>衡量预测与真实值差异的目标函数。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>优化器 (Optimizer)</td>
      <td>用于更新模型参数以最小化损失的算法。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>梯度下降 (Gradient Descent)</td>
      <td>沿损失函数负梯度方向迭代更新参数。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>随机梯度下降 (SGD)</td>
      <td>每次用单个样本估计梯度，加速训练。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>动量 (Momentum)</td>
      <td>在梯度更新中引入历史速度，加速收敛。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>Adam 优化器</td>
      <td>结合动量与自适应学习率的高效优化算法。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>学习率 (Learning Rate)</td>
      <td>控制参数更新步长的超参数。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>批量大小 (Batch Size)</td>
      <td>每次参数更新所用样本数量。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>早停 (Early Stopping)</td>
      <td>在验证性能不再提升时终止训练，防过拟合。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>准确率 (Accuracy)</td>
      <td>分类正确的样本比例。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>精确率/召回率/F1 (Precision/Recall/F1)</td>
      <td>衡量分类性能，尤其在不平衡数据中。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>ROC-AUC</td>
      <td>衡量二分类器在不同阈值下的整体性能。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>混淆矩阵 (Confusion Matrix)</td>
      <td>展示分类结果的详细统计。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>均方误差 (MSE)</td>
      <td>回归任务中预测与真实值平方差的平均。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>KL散度 (Kullback-Leibler Divergence)</td>
      <td>衡量两个概率分布的差异。</td>
      <td>信息论</td>
    </tr>
    <tr>
      <td>交叉熵 (Cross-Entropy)</td>
      <td>分类任务常用损失函数，衡量预测分布与真实分布差异。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>最大似然估计 (MLE)</td>
      <td>选择使观测数据概率最大的模型参数。</td>
      <td>统计</td>
    </tr>
    <tr>
      <td>贝叶斯推断 (Bayesian Inference)</td>
      <td>基于先验和似然计算后验分布。</td>
      <td>统计</td>
    </tr>
    <tr>
      <td>集成学习 (Ensemble Learning)</td>
      <td>结合多个模型提升性能（如Bagging, Boosting）。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>随机森林 (Random Forest)</td>
      <td>基于决策树的Bagging集成方法。</td>
      <td>ML</td>
    </tr>
    <tr>
      <td>梯度提升机 (GBM / XGBoost)</td>
      <td>通过逐步拟合残差构建强模型。</td>
      <td>ML</td>
    </tr>
  </tbody>
</table>

<h2 id="2dl">2、DL</h2>

<table>
  <thead>
    <tr>
      <th>名词 (Term)</th>
      <th>定义 / 描述</th>
      <th>分类标签</th>
    </tr>
  </thead>
  <tbody>
    <tr>
      <td>神经网络 (Neural Network)</td>
      <td>由互连节点（神经元）组成的计算模型，模拟人脑信息处理。</td>
      <td>DL</td>
    </tr>
    <tr>
      <td>感知机 (Perceptron)</td>
      <td>最简单的线性分类神经网络。</td>
      <td>DL</td>
    </tr>
    <tr>
      <td>多层感知机 (MLP)</td>
      <td>含一个或多个隐藏层的前馈神经网络。</td>
      <td>DL</td>
    </tr>
    <tr>
      <td>激活函数 (Activation Function)</td>
      <td>引入非线性（如 ReLU、Sigmoid、Tanh）。</td>
      <td>DL</td>
    </tr>
    <tr>
      <td>反向传播 (Backpropagation)</td>
      <td>通过链式法则计算梯度的算法。</td>
      <td>DL</td>
    </tr>
    <tr>
      <td>权重初始化 (Weight Initialization)</td>
      <td>合理设置初始参数以促进训练（如 Xavier、He）。</td>
      <td>DL</td>
    </tr>
    <tr>
      <td>批归一化 (Batch Normalization)</td>
      <td>对每批数据标准化，加速训练并稳定收敛。</td>
      <td>DL</td>
    </tr>
    <tr>
      <td>层归一化 (Layer Normalization)</td>
      <td>对单个样本的特征归一化，适用于 RNN / Transformer。</td>
      <td>DL</td>
    </tr>
    <tr>
      <td>Dropout</td>
      <td>训练时随机屏蔽部分神经元，防止过拟合。</td>
      <td>DL</td>
    </tr>
    <tr>
      <td>全连接层 (Fully Connected Layer)</td>
      <td>每个神经元与前一层所有神经元相连。</td>
      <td>DL</td>
    </tr>
    <tr>
      <td>残差连接 (Residual Connection)</td>
      <td>跳跃连接，缓解深层网络中的梯度消失问题。</td>
      <td>DL</td>
    </tr>
    <tr>
      <td>自编码器 (Autoencoder)</td>
      <td>学习数据压缩表示并进行重建。</td>
      <td>DL</td>
    </tr>
    <tr>
      <td>去噪自编码器 (Denoising AE)</td>
      <td>从加噪输入中恢复原始数据。</td>
      <td>DL</td>
    </tr>
    <tr>
      <td>稀疏自编码器 (Sparse AE)</td>
      <td>通过稀疏约束学习更有效的特征表示。</td>
      <td>DL</td>
    </tr>
    <tr>
      <td>受限玻尔兹曼机 (RBM)</td>
      <td>两层无向图模型，用于特征学习。</td>
      <td>经典DL</td>
    </tr>
    <tr>
      <td>深度置信网络 (DBN)</td>
      <td>由多层 RBM 堆叠构成的生成模型。</td>
      <td>经典DL</td>
    </tr>
    <tr>
      <td>卷积神经网络 (CNN)</td>
      <td>使用卷积核提取局部空间特征，常用于图像任务。</td>
      <td>CV/DL</td>
    </tr>
    <tr>
      <td>卷积 (Convolution)</td>
      <td>通过滑动滤波器提取局部特征的操作。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>池化 (Pooling)</td>
      <td>下采样操作（如 Max Pooling），降低维度并增强不变性。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>残差网络 (ResNet)</td>
      <td>基于残差连接的深度卷积网络架构。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>Inception 模块</td>
      <td>并行多尺度卷积核提取特征。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>U-Net</td>
      <td>编码器-解码器结构，常用于医学图像分割。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>胶囊网络 (Capsule Network)</td>
      <td>使用向量表示特征，保留空间层级信息。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>Vision Transformer (ViT)</td>
      <td>将图像分块后输入 Transformer 进行建模。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>Swin Transformer</td>
      <td>基于滑动窗口的层次化视觉 Transformer。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>ConvNeXt</td>
      <td>现代化 CNN 架构，性能接近 Transformer。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>神经辐射场 (NeRF)</td>
      <td>使用神经网络表示 3D 场景，实现新视角合成。</td>
      <td>3D视觉</td>
    </tr>
    <tr>
      <td>循环神经网络 (RNN)</td>
      <td>通过隐藏状态建模序列数据依赖。</td>
      <td>NLP/DL</td>
    </tr>
    <tr>
      <td>长短期记忆 (LSTM)</td>
      <td>带门控机制的 RNN，解决长期依赖问题。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>门控循环单元 (GRU)</td>
      <td>LSTM 的简化版本，计算更高效。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>Transformer</td>
      <td>基于自注意力机制的序列建模架构。</td>
      <td>NLP/DL</td>
    </tr>
    <tr>
      <td>注意力机制 (Attention Mechanism)</td>
      <td>动态关注重要信息，提高建模能力。</td>
      <td>NLP/CV</td>
    </tr>
    <tr>
      <td>自注意力 (Self-Attention)</td>
      <td>建模序列内部元素之间的依赖关系。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>多头注意力 (Multi-Head Attention)</td>
      <td>并行多个注意力头捕获不同特征。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>交叉注意力 (Cross-Attention)</td>
      <td>在不同序列之间建立关联（如编码器-解码器）。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>位置编码 (Positional Encoding)</td>
      <td>为序列引入位置信息。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>编码器-解码器 (Encoder-Decoder)</td>
      <td>将输入编码后再解码生成输出序列。</td>
      <td>NLP/CV</td>
    </tr>
    <tr>
      <td>Mamba</td>
      <td>基于状态空间模型的高效序列建模架构。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>状态空间模型 (SSM)</td>
      <td>用连续动态系统建模长序列依赖。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>图神经网络 (GNN)</td>
      <td>用于处理图结构数据的神经网络。</td>
      <td>图学习</td>
    </tr>
    <tr>
      <td>图卷积网络 (GCN)</td>
      <td>基于图结构的卷积操作进行信息聚合。</td>
      <td>图学习</td>
    </tr>
    <tr>
      <td>消息传递神经网络 (MPNN)</td>
      <td>统一 GNN 框架（消息、聚合、更新）。</td>
      <td>图学习</td>
    </tr>
    <tr>
      <td>时空图神经网络 (ST-GNN)</td>
      <td>同时建模时间与空间依赖关系。</td>
      <td>图学习</td>
    </tr>
    <tr>
      <td>生成对抗网络 (GAN)</td>
      <td>通过生成器与判别器对抗训练生成数据。</td>
      <td>生成式AI</td>
    </tr>
    <tr>
      <td>Wasserstein GAN (WGAN)</td>
      <td>使用 Wasserstein 距离提升训练稳定性。</td>
      <td>生成式AI</td>
    </tr>
    <tr>
      <td>变分自编码器 (VAE)</td>
      <td>基于概率潜变量生成数据。</td>
      <td>生成式AI</td>
    </tr>
    <tr>
      <td>扩散模型 (Diffusion Models)</td>
      <td>通过逐步去噪生成数据。</td>
      <td>生成式AI</td>
    </tr>
    <tr>
      <td>潜在扩散模型 (LDM)</td>
      <td>在潜在空间进行扩散以降低计算成本。</td>
      <td>生成式AI</td>
    </tr>
    <tr>
      <td>自回归模型 (Autoregressive Models)</td>
      <td>按序列逐步生成数据。</td>
      <td>生成式AI</td>
    </tr>
    <tr>
      <td>流模型 (Normalizing Flows)</td>
      <td>通过可逆变换建模复杂分布。</td>
      <td>生成式AI</td>
    </tr>
    <tr>
      <td>能量基模型 (EBM)</td>
      <td>使用能量函数定义概率分布。</td>
      <td>生成式AI</td>
    </tr>
    <tr>
      <td>对比散度 (Contrastive Divergence)</td>
      <td>训练 EBM 或 RBM 的近似方法。</td>
      <td>生成式AI</td>
    </tr>
    <tr>
      <td>混合专家 (MoE)</td>
      <td>由多个专家网络组成，动态选择激活。</td>
      <td>大模型</td>
    </tr>
    <tr>
      <td>门控网络 (Gating Network)</td>
      <td>在 MoE 中决定激活哪些专家。</td>
      <td>大模型</td>
    </tr>
    <tr>
      <td>稀疏激活 (Sparse Activation)</td>
      <td>每次仅激活部分参数，提高效率。</td>
      <td>大模型</td>
    </tr>
    <tr>
      <td>知识蒸馏 (Knowledge Distillation)</td>
      <td>用大模型指导小模型训练。</td>
      <td>模型压缩</td>
    </tr>
    <tr>
      <td>模型剪枝 (Pruning)</td>
      <td>移除冗余参数以压缩模型。</td>
      <td>模型压缩</td>
    </tr>
    <tr>
      <td>量化 (Quantization)</td>
      <td>降低数值精度以减少计算与存储成本。</td>
      <td>部署</td>
    </tr>
  </tbody>
</table>

<h2 id="3nlp">3、NLP</h2>

<table>
  <thead>
    <tr>
      <th>名词 (Term)</th>
      <th>定义 / 描述</th>
      <th>分类标签</th>
    </tr>
  </thead>
  <tbody>
    <tr>
      <td>自然语言处理 (NLP)</td>
      <td>让计算机理解和生成人类语言的技术。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>分词 (Tokenization)</td>
      <td>将文本切分为词或子词单元。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>分词器 (Tokenizer)</td>
      <td>执行文本切分并建立 token 与 id 映射的组件。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>Byte Pair Encoding (BPE)</td>
      <td>通过频繁子串合并构建子词词表的方法。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>WordPiece</td>
      <td>常用于 BERT 系列的子词切分方法。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>SentencePiece</td>
      <td>面向原始文本训练子词词表的分词工具。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>词干提取 (Stemming)</td>
      <td>去除词缀得到词干（如 running → run）。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>词形还原 (Lemmatization)</td>
      <td>将词还原为词典形式。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>词嵌入 (Word Embedding)</td>
      <td>将词映射为稠密向量（如 Word2Vec）。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>上下文词嵌入 (Contextual Embedding)</td>
      <td>根据上下文动态生成词向量（如 BERT）。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>词性标注 (POS Tagging)</td>
      <td>标注词的语法类别。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>命名实体识别 (NER)</td>
      <td>识别人名、地名、组织等实体。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>实体链接 (Entity Linking)</td>
      <td>将文本实体映射到知识库。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>关系抽取 (Relation Extraction)</td>
      <td>识别实体之间的关系。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>事件抽取 (Event Extraction)</td>
      <td>提取事件及其参与要素。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>开放信息抽取 (Open IE)</td>
      <td>无需预定义关系直接抽取三元组。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>共指消解 (Coreference Resolution)</td>
      <td>判断不同指代是否为同一实体。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>语义角色标注 (SRL)</td>
      <td>标注句子中的语义角色关系。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>依存句法分析 (Dependency Parsing)</td>
      <td>构建词语依赖关系树。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>成分句法分析 (Constituency Parsing)</td>
      <td>构建句子短语结构树。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>文本分类 (Text Classification)</td>
      <td>将文本划分到类别。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>情感分析 (Sentiment Analysis)</td>
      <td>判断文本情感倾向。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>文本蕴含 (NLI)</td>
      <td>判断句子间逻辑关系。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>语义相似度 (Semantic Similarity)</td>
      <td>衡量文本语义接近程度。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>机器翻译 (Machine Translation)</td>
      <td>自动翻译不同语言。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>神经机器翻译 (NMT)</td>
      <td>基于神经网络的翻译方法。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>束搜索 (Beam Search)</td>
      <td>近似最优解码策略。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>文本摘要 (Text Summarization)</td>
      <td>生成文本简要概括。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>抽取式摘要</td>
      <td>从原文提取关键句。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>生成式摘要</td>
      <td>生成新的摘要文本。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>问答系统 (QA)</td>
      <td>根据上下文回答问题。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>开放域问答 (Open QA)</td>
      <td>从大规模知识中回答问题。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>机器阅读理解 (MRC)</td>
      <td>从给定文本中定位答案。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>对话系统 (Dialogue System)</td>
      <td>与用户进行多轮交互。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>任务型对话</td>
      <td>完成具体任务（如订票）。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>闲聊对话</td>
      <td>开放域自然对话。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>对话状态跟踪 (DST)</td>
      <td>跟踪用户意图与状态。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>信息检索 (IR)</td>
      <td>从文档集合中查找相关内容。</td>
      <td>IR</td>
    </tr>
    <tr>
      <td>倒排索引 (Inverted Index)</td>
      <td>支持高效检索的数据结构。</td>
      <td>IR</td>
    </tr>
    <tr>
      <td>TF-IDF</td>
      <td>衡量词的重要性（用于检索与表示）。</td>
      <td>IR/NLP</td>
    </tr>
    <tr>
      <td>BM25</td>
      <td>改进 TF-IDF 的排序算法。</td>
      <td>IR</td>
    </tr>
    <tr>
      <td>词袋模型 (Bag-of-Words)</td>
      <td>忽略词序，仅统计词频。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>TF-IDF 向量</td>
      <td>基于 TF-IDF 的文本表示。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>语言模型 (Language Model)</td>
      <td>建模词序列概率分布。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>n-gram 模型</td>
      <td>基于马尔可夫假设的语言模型。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>困惑度 (Perplexity)</td>
      <td>衡量语言模型不确定性。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>主题模型 (Topic Modeling)</td>
      <td>发现文本中的潜在主题。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>潜在狄利克雷分配 (LDA)</td>
      <td>经典概率主题模型。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>Word2Vec</td>
      <td>基于预测任务学习词向量。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>GloVe</td>
      <td>基于共现统计学习词向量。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>FastText</td>
      <td>基于子词建模词向量。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>ELMo</td>
      <td>基于双向 LSTM 的上下文表示。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>BERT</td>
      <td>双向 Transformer 预训练模型。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>RoBERTa</td>
      <td>优化版 BERT。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>ALBERT</td>
      <td>参数共享的轻量 BERT。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>DistilBERT</td>
      <td>蒸馏版 BERT。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>T5</td>
      <td>统一为文本到文本任务框架。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>GPT</td>
      <td>自回归语言模型架构。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>GPT-2 / GPT-3</td>
      <td>大规模预训练语言模型。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>大语言模型 (LLM)</td>
      <td>超大规模通用语言模型。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>FLAN</td>
      <td>基于指令微调的模型。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>指令微调 (Instruction Tuning)</td>
      <td>用指令数据优化模型行为。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>提示工程 (Prompt Engineering)</td>
      <td>设计输入以引导模型输出。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>上下文学习 (In-Context Learning)</td>
      <td>利用示例完成任务，无需训练。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>链式思维 (CoT)</td>
      <td>生成中间推理步骤。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>自洽性 (Self-Consistency)</td>
      <td>多路径推理投票选择答案。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>程序辅助语言模型 (PAL)</td>
      <td>将推理转为程序执行。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>思维树 (Tree of Thoughts)</td>
      <td>树状结构搜索推理路径。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>反思 (Reflexion)</td>
      <td>自我反馈优化推理过程。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>检索增强生成 (RAG)</td>
      <td>结合检索与生成提升准确性。</td>
      <td>NLP</td>
    </tr>
    <tr>
      <td>LangChain</td>
      <td>LLM 应用开发框架。</td>
      <td>工具</td>
    </tr>
    <tr>
      <td>LlamaIndex</td>
      <td>面向 RAG 的数据框架。</td>
      <td>工具</td>
    </tr>
    <tr>
      <td>知识图谱 (Knowledge Graph)</td>
      <td>结构化实体关系网络。</td>
      <td>KG</td>
    </tr>
    <tr>
      <td>知识图谱补全 (KGC)</td>
      <td>预测缺失关系。</td>
      <td>KG</td>
    </tr>
    <tr>
      <td>BLEU</td>
      <td>基于 n-gram 的翻译评估指标。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>ROUGE</td>
      <td>摘要任务评估指标。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>METEOR</td>
      <td>考虑语义匹配的评估指标。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>BERTScore</td>
      <td>基于语义嵌入的评估指标。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>MAUVE</td>
      <td>衡量生成分布差异。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>SuperGLUE / GLUE</td>
      <td>综合 NLP 基准测试。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>MMLU</td>
      <td>多学科知识评估数据集。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>GSM8K</td>
      <td>数学推理数据集。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>TruthfulQA</td>
      <td>测试事实性与幻觉。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>BIG-bench</td>
      <td>多任务评估集合。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>HELM</td>
      <td>全面评估框架。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>幻觉 (Hallucination)</td>
      <td>生成内容与事实不符。</td>
      <td>问题</td>
    </tr>
    <tr>
      <td>偏见 (Bias)</td>
      <td>模型中的不公平倾向。</td>
      <td>伦理</td>
    </tr>
    <tr>
      <td>公平性 (Fairness)</td>
      <td>确保不同群体公平对待。</td>
      <td>伦理</td>
    </tr>
    <tr>
      <td>可解释性 (Explainability)</td>
      <td>理解模型决策过程。</td>
      <td>可信AI</td>
    </tr>
    <tr>
      <td>LIME / SHAP</td>
      <td>模型解释方法。</td>
      <td>可信AI</td>
    </tr>
  </tbody>
</table>

<h2 id="4cv">4、CV</h2>

<table>
  <thead>
    <tr>
      <th>名词 (Term)</th>
      <th>定义 / 描述</th>
      <th>分类标签</th>
    </tr>
  </thead>
  <tbody>
    <tr>
      <td>计算机视觉 (Computer Vision)</td>
      <td>让机器理解和分析图像与视频内容。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>图像分类 (Image Classification)</td>
      <td>为整张图像分配类别标签。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>目标检测 (Object Detection)</td>
      <td>定位并识别图像中的多个物体。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>边界框 (Bounding Box)</td>
      <td>用矩形框标注目标位置。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>实例分割 (Instance Segmentation)</td>
      <td>对每个目标实例进行像素级分割。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>语义分割 (Semantic Segmentation)</td>
      <td>为每个像素分配类别标签。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>全景分割 (Panoptic Segmentation)</td>
      <td>统一实例分割与语义分割。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>关键点检测 (Keypoint Detection)</td>
      <td>定位物体关键点（如人体关节）。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>姿态估计 (Pose Estimation)</td>
      <td>估计人体或物体姿态结构。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>光流 (Optical Flow)</td>
      <td>估计像素在时间上的运动。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>立体视觉 (Stereo Vision)</td>
      <td>从双目图像恢复深度信息。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>深度估计 (Depth Estimation)</td>
      <td>从单目或视频预测深度。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>图像去噪 (Image Denoising)</td>
      <td>去除图像中的噪声。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>超分辨率 (Super-Resolution)</td>
      <td>提升图像分辨率。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>图像修复 (Image Inpainting)</td>
      <td>填补图像缺失区域。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>风格迁移 (Style Transfer)</td>
      <td>将图像风格迁移到另一图像。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>图像配准 (Image Registration)</td>
      <td>对齐不同来源图像。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>特征点检测 (Feature Detection)</td>
      <td>提取稳定关键点（如 SIFT）。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>特征描述子 (Feature Descriptor)</td>
      <td>描述关键点局部特征。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>边缘检测 (Edge Detection)</td>
      <td>提取图像边界（如 Canny）。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>霍夫变换 (Hough Transform)</td>
      <td>检测直线、圆等几何结构。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>图像金字塔 (Image Pyramid)</td>
      <td>多尺度图像表示方法。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>非极大值抑制 (NMS)</td>
      <td>去除重复检测框。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>交并比 (IoU)</td>
      <td>衡量两个框的重叠程度。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>mAP</td>
      <td>目标检测综合评估指标。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>PSNR / SSIM</td>
      <td>图像质量评估指标。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>YOLO</td>
      <td>单阶段实时目标检测模型。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>Faster R-CNN</td>
      <td>两阶段目标检测模型。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>Mask R-CNN</td>
      <td>增加实例分割分支的检测模型。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>EfficientDet</td>
      <td>基于 EfficientNet 的检测模型。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>DETR</td>
      <td>基于 Transformer 的检测模型。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>SAM</td>
      <td>通用图像分割模型。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>Grounded-SAM</td>
      <td>结合检测与分割的开放词汇模型。</td>
      <td>CV</td>
    </tr>
    <tr>
      <td>CLIP</td>
      <td>对齐图像与文本表示的模型。</td>
      <td>多模态</td>
    </tr>
    <tr>
      <td>BLIP / BLIP-2</td>
      <td>图文理解与生成模型。</td>
      <td>多模态</td>
    </tr>
    <tr>
      <td>Flamingo</td>
      <td>支持交错图文输入的模型。</td>
      <td>多模态</td>
    </tr>
    <tr>
      <td>KOSMOS-1/2</td>
      <td>微软多模态大模型。</td>
      <td>多模态</td>
    </tr>
    <tr>
      <td>LLaVA</td>
      <td>视觉+语言对话模型。</td>
      <td>多模态</td>
    </tr>
    <tr>
      <td>多模态大语言模型 (MLLM)</td>
      <td>处理多模态输入的语言模型。</td>
      <td>多模态</td>
    </tr>
    <tr>
      <td>视觉问答 (VQA)</td>
      <td>回答关于图像的问题。</td>
      <td>多模态</td>
    </tr>
    <tr>
      <td>图像描述生成 (Image Captioning)</td>
      <td>为图像生成文本描述。</td>
      <td>多模态</td>
    </tr>
    <tr>
      <td>跨模态检索 (Cross-modal Retrieval)</td>
      <td>图文互相检索。</td>
      <td>多模态</td>
    </tr>
    <tr>
      <td>视频分类 (Video Classification)</td>
      <td>对视频进行类别分类。</td>
      <td>视频</td>
    </tr>
    <tr>
      <td>动作识别 (Action Recognition)</td>
      <td>识别视频中的动作。</td>
      <td>视频</td>
    </tr>
    <tr>
      <td>视频目标检测</td>
      <td>在视频中检测目标。</td>
      <td>视频</td>
    </tr>
    <tr>
      <td>视频跟踪 (Video Tracking)</td>
      <td>持续跟踪目标位置。</td>
      <td>视频</td>
    </tr>
    <tr>
      <td>多目标跟踪 (MOT)</td>
      <td>同时跟踪多个目标。</td>
      <td>视频</td>
    </tr>
    <tr>
      <td>SORT / DeepSORT</td>
      <td>基于卡尔曼滤波的跟踪算法。</td>
      <td>视频</td>
    </tr>
    <tr>
      <td>光度立体视觉 (Photometric Stereo)</td>
      <td>从多光照恢复表面法线。</td>
      <td>3D</td>
    </tr>
    <tr>
      <td>结构光 (Structured Light)</td>
      <td>通过投影图案获取深度。</td>
      <td>3D</td>
    </tr>
    <tr>
      <td>ToF (Time-of-Flight)</td>
      <td>基于飞行时间测距。</td>
      <td>3D</td>
    </tr>
    <tr>
      <td>点云 (Point Cloud)</td>
      <td>三维空间中的点集合。</td>
      <td>3D</td>
    </tr>
    <tr>
      <td>PointNet / PointNet++</td>
      <td>点云处理模型。</td>
      <td>3D</td>
    </tr>
    <tr>
      <td>体素 (Voxel)</td>
      <td>三维网格表示单位。</td>
      <td>3D</td>
    </tr>
    <tr>
      <td>Mesh</td>
      <td>基于顶点与面的3D表示。</td>
      <td>3D</td>
    </tr>
    <tr>
      <td>3D Gaussian Splatting</td>
      <td>基于高斯分布的3D表示方法。</td>
      <td>3D</td>
    </tr>
    <tr>
      <td>SLAM</td>
      <td>同步定位与建图技术。</td>
      <td>机器人</td>
    </tr>
    <tr>
      <td>ORB-SLAM</td>
      <td>基于 ORB 特征的 SLAM 系统。</td>
      <td>机器人</td>
    </tr>
    <tr>
      <td>医学图像分割</td>
      <td>医学图像中的结构分割任务。</td>
      <td>医疗CV</td>
    </tr>
    <tr>
      <td>nnU-Net</td>
      <td>自动化医学分割框架。</td>
      <td>医疗CV</td>
    </tr>
    <tr>
      <td>遥感图像分析</td>
      <td>分析卫星或航拍图像。</td>
      <td>遥感</td>
    </tr>
    <tr>
      <td>变化检测</td>
      <td>检测不同时相图像差异。</td>
      <td>遥感</td>
    </tr>
    <tr>
      <td>ImageNet</td>
      <td>大规模图像分类数据集。</td>
      <td>数据集</td>
    </tr>
    <tr>
      <td>COCO</td>
      <td>检测、分割等多任务数据集。</td>
      <td>数据集</td>
    </tr>
    <tr>
      <td>PASCAL VOC</td>
      <td>经典目标检测数据集。</td>
      <td>数据集</td>
    </tr>
    <tr>
      <td>Cityscapes</td>
      <td>城市场景分割数据集。</td>
      <td>数据集</td>
    </tr>
    <tr>
      <td>KITTI</td>
      <td>自动驾驶数据集。</td>
      <td>数据集</td>
    </tr>
    <tr>
      <td>ActivityNet</td>
      <td>视频理解数据集。</td>
      <td>数据集</td>
    </tr>
    <tr>
      <td>Kinetics</td>
      <td>视频动作分类数据集。</td>
      <td>数据集</td>
    </tr>
    <tr>
      <td>ADE20K</td>
      <td>场景解析数据集。</td>
      <td>数据集</td>
    </tr>
    <tr>
      <td>Open Images</td>
      <td>大规模多任务视觉数据集。</td>
      <td>数据集</td>
    </tr>
  </tbody>
</table>

<h2 id="5rl">5、RL</h2>

<table>
  <thead>
    <tr>
      <th>名词 (Term)</th>
      <th>定义 / 描述</th>
      <th>分类标签</th>
    </tr>
  </thead>
  <tbody>
    <tr>
      <td>马尔可夫决策过程 (MDP)</td>
      <td>强化学习的标准数学建模框架。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>部分可观测MDP (POMDP)</td>
      <td>状态不可完全观测的扩展MDP。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>状态 (State)</td>
      <td>环境在某一时刻的表示。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>动作 (Action)</td>
      <td>智能体可执行的操作。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>奖励 (Reward)</td>
      <td>环境对动作的即时反馈信号。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>策略 (Policy)</td>
      <td>从状态到动作的映射函数。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>价值函数 (Value Function)</td>
      <td>衡量状态或状态-动作的长期回报。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>Q函数 (Action-Value Function)</td>
      <td>Q(s,a) 表示在状态 s 下执行动作 a 的期望回报。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>贝尔曼方程 (Bellman Equation)</td>
      <td>描述价值函数的递归关系。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>贝尔曼最优方程</td>
      <td>描述最优策略的价值函数关系。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>探索 vs 利用 (Exploration vs Exploitation)</td>
      <td>在探索新策略与利用已有策略之间权衡。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>ε-贪婪策略 (ε-Greedy)</td>
      <td>以 ε 概率随机探索，否则选择最优动作。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>蒙特卡洛方法 (Monte Carlo)</td>
      <td>基于完整轨迹估计回报。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>时序差分学习 (TD Learning)</td>
      <td>基于一步估计更新价值函数。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>SARSA</td>
      <td>基于 on-policy 的 TD 控制算法。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>Q-learning</td>
      <td>基于 off-policy 的 TD 控制算法。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>深度Q网络 (DQN)</td>
      <td>用神经网络近似 Q 函数。</td>
      <td>深度RL</td>
    </tr>
    <tr>
      <td>经验回放 (Experience Replay)</td>
      <td>重用历史经验以提高样本效率。</td>
      <td>深度RL</td>
    </tr>
    <tr>
      <td>目标网络 (Target Network)</td>
      <td>延迟更新目标值以稳定训练。</td>
      <td>深度RL</td>
    </tr>
    <tr>
      <td>Double DQN</td>
      <td>缓解 Q 值过估问题。</td>
      <td>深度RL</td>
    </tr>
    <tr>
      <td>Dueling DQN</td>
      <td>分离状态价值与优势函数。</td>
      <td>深度RL</td>
    </tr>
    <tr>
      <td>优先经验回放 (PER)</td>
      <td>按 TD 误差优先采样经验。</td>
      <td>深度RL</td>
    </tr>
    <tr>
      <td>Rainbow</td>
      <td>集成多种 DQN 改进的算法。</td>
      <td>深度RL</td>
    </tr>
    <tr>
      <td>策略梯度 (Policy Gradient)</td>
      <td>直接优化策略参数的方法。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>REINFORCE</td>
      <td>基于蒙特卡洛的策略梯度算法。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>Actor-Critic</td>
      <td>同时学习策略（Actor）与价值（Critic）。</td>
      <td>深度RL</td>
    </tr>
    <tr>
      <td>A3C / A2C</td>
      <td>异步/同步的 Actor-Critic 方法。</td>
      <td>深度RL</td>
    </tr>
    <tr>
      <td>PPO</td>
      <td>通过裁剪策略更新提高稳定性。</td>
      <td>深度RL</td>
    </tr>
    <tr>
      <td>TRPO</td>
      <td>通过 KL 约束限制策略更新幅度。</td>
      <td>深度RL</td>
    </tr>
    <tr>
      <td>DDPG</td>
      <td>连续动作空间的确定性策略梯度算法。</td>
      <td>深度RL</td>
    </tr>
    <tr>
      <td>TD3</td>
      <td>改进 DDPG，降低过估问题。</td>
      <td>深度RL</td>
    </tr>
    <tr>
      <td>SAC</td>
      <td>基于最大熵的强化学习方法。</td>
      <td>深度RL</td>
    </tr>
    <tr>
      <td>IMPALA</td>
      <td>分布式 Actor-Learner 框架。</td>
      <td>深度RL</td>
    </tr>
    <tr>
      <td>Dreamer / DreamerV2 / V3</td>
      <td>基于世界模型的强化学习方法。</td>
      <td>深度RL</td>
    </tr>
    <tr>
      <td>世界模型 (World Model)</td>
      <td>学习环境动态用于规划与决策。</td>
      <td>深度RL</td>
    </tr>
    <tr>
      <td>模型基RL (Model-Based RL)</td>
      <td>显式学习环境模型进行决策。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>无模型RL (Model-Free RL)</td>
      <td>不建模环境，直接学习策略或价值。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>离线强化学习 (Offline RL)</td>
      <td>在固定数据集上训练策略。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>BCQ</td>
      <td>限制策略分布的离线 RL 方法。</td>
      <td>离线RL</td>
    </tr>
    <tr>
      <td>CQL</td>
      <td>保守 Q 学习，避免过高估计。</td>
      <td>离线RL</td>
    </tr>
    <tr>
      <td>Decision Transformer</td>
      <td>将 RL 建模为序列预测问题。</td>
      <td>离线RL</td>
    </tr>
    <tr>
      <td>IQL</td>
      <td>无需显式策略网络的离线 RL 方法。</td>
      <td>离线RL</td>
    </tr>
    <tr>
      <td>多智能体强化学习 (MARL)</td>
      <td>多个智能体共同学习与交互。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>博弈论 (Game Theory)</td>
      <td>多智能体决策的理论基础。</td>
      <td>MARL</td>
    </tr>
    <tr>
      <td>纳什均衡 (Nash Equilibrium)</td>
      <td>各方策略稳定的博弈解。</td>
      <td>MARL</td>
    </tr>
    <tr>
      <td>逆强化学习 (Inverse RL)</td>
      <td>从专家行为中推断奖励函数。</td>
      <td>IL</td>
    </tr>
    <tr>
      <td>模仿学习 (Imitation Learning)</td>
      <td>模仿专家策略进行学习。</td>
      <td>IL</td>
    </tr>
    <tr>
      <td>行为克隆 (Behavior Cloning)</td>
      <td>将模仿学习转化为监督学习。</td>
      <td>IL</td>
    </tr>
    <tr>
      <td>DAgger</td>
      <td>通过交互数据缓解分布偏移。</td>
      <td>IL</td>
    </tr>
    <tr>
      <td>课程学习 (Curriculum Learning)</td>
      <td>从简单任务逐步学习复杂任务。</td>
      <td>RL/ML</td>
    </tr>
    <tr>
      <td>奖励塑形 (Reward Shaping)</td>
      <td>设计辅助奖励加速学习。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>稀疏奖励 (Sparse Reward)</td>
      <td>仅在少数状态提供奖励。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>内在动机 (Intrinsic Motivation)</td>
      <td>基于好奇心驱动探索。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>ICM</td>
      <td>基于预测误差的内在动机模块。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>HER</td>
      <td>重标记目标以提高样本利用率。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>多任务RL (Multi-task RL)</td>
      <td>同时学习多个任务。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>元强化学习 (Meta-RL)</td>
      <td>快速适应新任务的 RL 方法。</td>
      <td>RL</td>
    </tr>
    <tr>
      <td>安全强化学习 (Safe RL)</td>
      <td>在约束条件下学习策略。</td>
      <td>安全RL</td>
    </tr>
    <tr>
      <td>约束MDP (CMDP)</td>
      <td>带约束条件的 MDP 扩展。</td>
      <td>安全RL</td>
    </tr>
  </tbody>
</table>

<h2 id="6llm">6、LLM</h2>

<table>
  <thead>
    <tr>
      <th>名词 (Term)</th>
      <th>定义 / 描述</th>
      <th>分类标签</th>
    </tr>
  </thead>
  <tbody>
    <tr>
      <td>基础模型 (Foundation Model)</td>
      <td>在大规模数据上预训练的通用模型。</td>
      <td>大模型</td>
    </tr>
    <tr>
      <td>预训练 (Pretraining)</td>
      <td>在通用语料上学习通用能力。</td>
      <td>大模型</td>
    </tr>
    <tr>
      <td>监督微调 (SFT)</td>
      <td>在高质量数据上优化模型表现。</td>
      <td>大模型</td>
    </tr>
    <tr>
      <td>参数高效微调 (PEFT)</td>
      <td>仅训练少量新增或选定参数完成微调。</td>
      <td>大模型</td>
    </tr>
    <tr>
      <td>LoRA</td>
      <td>通过低秩适配器高效微调大模型。</td>
      <td>大模型</td>
    </tr>
    <tr>
      <td>QLoRA</td>
      <td>结合量化与 LoRA 的低成本微调方法。</td>
      <td>大模型</td>
    </tr>
    <tr>
      <td>Prefix Tuning</td>
      <td>通过学习前缀向量引导模型完成任务。</td>
      <td>大模型</td>
    </tr>
    <tr>
      <td>P-Tuning</td>
      <td>用可学习提示向量替代人工离散提示。</td>
      <td>大模型</td>
    </tr>
    <tr>
      <td>人类反馈强化学习 (RLHF)</td>
      <td>使用人类偏好优化模型输出。</td>
      <td>对齐</td>
    </tr>
    <tr>
      <td>奖励模型 (Reward Model)</td>
      <td>评估输出质量的模型。</td>
      <td>对齐</td>
    </tr>
    <tr>
      <td>直接偏好优化 (DPO)</td>
      <td>不使用RL直接优化偏好。</td>
      <td>对齐</td>
    </tr>
    <tr>
      <td>ORPO</td>
      <td>将偏好优化与监督目标结合的对齐方法。</td>
      <td>对齐</td>
    </tr>
    <tr>
      <td>KTO</td>
      <td>基于 Kahneman-Tversky 理论的偏好优化方法。</td>
      <td>对齐</td>
    </tr>
    <tr>
      <td>宪法AI (Constitutional AI)</td>
      <td>基于规则进行自我对齐。</td>
      <td>对齐</td>
    </tr>
    <tr>
      <td>Self-Alignment</td>
      <td>模型自生成数据进行对齐。</td>
      <td>对齐</td>
    </tr>
    <tr>
      <td>拒绝采样 (Rejection Sampling)</td>
      <td>从候选中选择高质量输出。</td>
      <td>推理</td>
    </tr>
    <tr>
      <td>KV Cache</td>
      <td>缓存历史键值张量以加速自回归解码。</td>
      <td>推理优化</td>
    </tr>
    <tr>
      <td>对齐税 (Alignment Tax)</td>
      <td>对齐带来的性能损失。</td>
      <td>对齐</td>
    </tr>
    <tr>
      <td>奖励黑客 (Reward Hacking)</td>
      <td>利用奖励漏洞而非完成任务。</td>
      <td>风险</td>
    </tr>
    <tr>
      <td>欺骗性对齐 (Deceptive Alignment)</td>
      <td>模型伪装为对齐状态。</td>
      <td>风险</td>
    </tr>
    <tr>
      <td>潜伏代理 (Sleeper Agents)</td>
      <td>在特定触发下执行隐藏行为。</td>
      <td>风险</td>
    </tr>
    <tr>
      <td>红队测试 (Red Teaming)</td>
      <td>主动攻击模型发现问题。</td>
      <td>安全</td>
    </tr>
    <tr>
      <td>AI安全 (AI Safety)</td>
      <td>确保AI行为可控与安全。</td>
      <td>安全</td>
    </tr>
    <tr>
      <td>AI治理 (AI Governance)</td>
      <td>规范AI开发与使用的制度。</td>
      <td>治理</td>
    </tr>
    <tr>
      <td>AI审计 (AI Auditing)</td>
      <td>对AI系统进行合规检查。</td>
      <td>治理</td>
    </tr>
    <tr>
      <td>差分隐私 (Differential Privacy)</td>
      <td>通过噪声保护数据隐私。</td>
      <td>隐私</td>
    </tr>
    <tr>
      <td>水印 (Watermarking)</td>
      <td>在生成内容中嵌入标识。</td>
      <td>版权</td>
    </tr>
    <tr>
      <td>绿色AI (Green AI)</td>
      <td>优化能耗与碳排放。</td>
      <td>可持续</td>
    </tr>
    <tr>
      <td>模型崩溃 (Model Collapse)</td>
      <td>在合成数据上训练导致退化。</td>
      <td>风险</td>
    </tr>
    <tr>
      <td>涌现能力 (Emergent Abilities)</td>
      <td>大模型规模带来的新能力。</td>
      <td>大模型</td>
    </tr>
    <tr>
      <td>Agent</td>
      <td>能自主规划与行动的系统。</td>
      <td>Agent</td>
    </tr>
    <tr>
      <td>具身智能 (Embodied AI)</td>
      <td>在物理环境中交互的AI。</td>
      <td>机器人</td>
    </tr>
    <tr>
      <td>Speculative Decoding</td>
      <td>用小模型加速大模型生成。</td>
      <td>推理优化</td>
    </tr>
    <tr>
      <td>Continuous Batching</td>
      <td>动态合批多个请求以提升推理吞吐。</td>
      <td>推理优化</td>
    </tr>
    <tr>
      <td>FlashAttention</td>
      <td>优化注意力计算效率。</td>
      <td>系统</td>
    </tr>
    <tr>
      <td>PagedAttention</td>
      <td>通过分页管理 KV Cache 提升推理内存效率。</td>
      <td>系统</td>
    </tr>
    <tr>
      <td>RoPE</td>
      <td>旋转位置编码方法。</td>
      <td>架构</td>
    </tr>
    <tr>
      <td>ALiBi</td>
      <td>线性偏置位置编码。</td>
      <td>架构</td>
    </tr>
    <tr>
      <td>RMSNorm</td>
      <td>不减均值的归一化方法，常见于大模型。</td>
      <td>架构</td>
    </tr>
    <tr>
      <td>SwiGLU</td>
      <td>常用于 Transformer 前馈层的激活结构。</td>
      <td>架构</td>
    </tr>
    <tr>
      <td>分组查询注意力 (GQA)</td>
      <td>多个查询头共享较少键值头的注意力机制。</td>
      <td>架构</td>
    </tr>
    <tr>
      <td>多查询注意力 (MQA)</td>
      <td>所有查询头共享同一组键值头以降低缓存开销。</td>
      <td>架构</td>
    </tr>
    <tr>
      <td>RWKV</td>
      <td>RNN与Transformer混合架构。</td>
      <td>架构</td>
    </tr>
    <tr>
      <td>DeepSpeed</td>
      <td>大模型训练优化框架。</td>
      <td>系统</td>
    </tr>
    <tr>
      <td>ZeRO</td>
      <td>分布式内存优化策略。</td>
      <td>系统</td>
    </tr>
    <tr>
      <td>FSDP</td>
      <td>PyTorch分布式训练方法。</td>
      <td>系统</td>
    </tr>
    <tr>
      <td>Megatron-LM</td>
      <td>NVIDIA大模型训练框架。</td>
      <td>系统</td>
    </tr>
    <tr>
      <td>张量并行 (Tensor Parallelism)</td>
      <td>将计算拆分到多个设备。</td>
      <td>系统</td>
    </tr>
    <tr>
      <td>流水线并行 (Pipeline Parallelism)</td>
      <td>按层分布执行模型。</td>
      <td>系统</td>
    </tr>
    <tr>
      <td>混合精度训练</td>
      <td>使用低精度加速训练。</td>
      <td>训练</td>
    </tr>
    <tr>
      <td>学习率预热</td>
      <td>初期逐步增大学习率。</td>
      <td>训练</td>
    </tr>
    <tr>
      <td>余弦退火</td>
      <td>学习率周期性衰减。</td>
      <td>训练</td>
    </tr>
    <tr>
      <td>梯度检查点</td>
      <td>用计算换显存。</td>
      <td>训练</td>
    </tr>
    <tr>
      <td>数据增强</td>
      <td>提升数据多样性。</td>
      <td>训练</td>
    </tr>
    <tr>
      <td>对抗样本 (Adversarial Example)</td>
      <td>微小扰动导致错误预测。</td>
      <td>安全</td>
    </tr>
    <tr>
      <td>对抗训练</td>
      <td>提升模型鲁棒性。</td>
      <td>安全</td>
    </tr>
    <tr>
      <td>OOD检测</td>
      <td>识别分布外数据。</td>
      <td>可信AI</td>
    </tr>
    <tr>
      <td>不确定性估计</td>
      <td>衡量预测置信度。</td>
      <td>可信AI</td>
    </tr>
    <tr>
      <td>校准 (Calibration)</td>
      <td>概率与真实准确率一致。</td>
      <td>可信AI</td>
    </tr>
    <tr>
      <td>模型卡片 (Model Cards)</td>
      <td>描述模型行为与风险。</td>
      <td>治理</td>
    </tr>
    <tr>
      <td>数据卡片 (Data Cards)</td>
      <td>描述数据来源与偏见。</td>
      <td>治理</td>
    </tr>
    <tr>
      <td>系统卡片 (System Cards)</td>
      <td>描述完整AI系统行为。</td>
      <td>治理</td>
    </tr>
    <tr>
      <td>FLOPs</td>
      <td>浮点运算量。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>延迟 (Latency)</td>
      <td>单次推理耗时。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>吞吐量 (Throughput)</td>
      <td>单位时间处理能力。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>显存占用 (VRAM Usage)</td>
      <td>GPU内存消耗。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>碳足迹 (Carbon Footprint)</td>
      <td>AI运行的环境影响。</td>
      <td>评估</td>
    </tr>
    <tr>
      <td>提示注入 (Prompt Injection)</td>
      <td>利用输入操控模型行为。</td>
      <td>安全</td>
    </tr>
    <tr>
      <td>越狱 (Jailbreaking)</td>
      <td>绕过模型安全限制。</td>
      <td>安全</td>
    </tr>
    <tr>
      <td>数据投毒 (Data Poisoning)</td>
      <td>恶意污染训练数据。</td>
      <td>安全</td>
    </tr>
    <tr>
      <td>模型窃取 (Model Stealing)</td>
      <td>复制模型能力。</td>
      <td>安全</td>
    </tr>
    <tr>
      <td>成员推断攻击</td>
      <td>判断数据是否参与训练。</td>
      <td>隐私</td>
    </tr>
    <tr>
      <td>模型反演</td>
      <td>从输出恢复训练数据。</td>
      <td>隐私</td>
    </tr>
  </tbody>
</table>]]></content><author><name></name></author><category term="study" /><category term="机器学习" /><category term="神经网络" /><category term="深度学习" /><summary type="html"><![CDATA[整理一下目前为止见过的论文里的专有名词，虽然可以见到再查，但是为了方便自己看，还是整理一下，持续更新。]]></summary></entry><entry><title type="html">该个人网站的整体架构以及后续重构的想法</title><link href="/emo/2026/03/19/this-web-arch.html" rel="alternate" type="text/html" title="该个人网站的整体架构以及后续重构的想法" /><published>2026-03-19T11:50:51+08:00</published><updated>2026-03-19T11:50:51+08:00</updated><id>/emo/2026/03/19/this-web-arch</id><content type="html" xml:base="/emo/2026/03/19/this-web-arch.html"><![CDATA[<blockquote>
  <p>很早之前想做个人网站，然后大二的时候简单用springboot和vue搭建了一个（作为一个课程的大作业），交完报告和演示之后没有再运营，然后就无了。
然后看到了别人githubio，就想起来做这个网站，所以想先记录一下这个网站的整体架构，以及后续的重构想法。</p>
</blockquote>

<h2 id="网站架构">网站架构</h2>

<h3 id="核心框架">核心框架</h3>

<p>目前底层用的是Jekyll，依赖github-pages，jekyll-pagination分页，所有文章放在_post/里，分类元数据通过categories/映射，其他的推荐数据之类的在_data/下。</p>

<h3 id="博客lifecycle">博客lifecycle</h3>

<p>我在 scripts 下写了个 blog_lifecycle_manager ，这里会对刚上传的博客打上上传时间（根据当地的时间），然后如果我更新博客内容，scirpts 会用 subprocess 对比 HEAD^1（也就是上一次该博客的提交，但是会仅对比旧的正文内容），如果current_body != committed_body，就会对博客添加一个 last_modified_at 元数据，值为修改时间。</p>

<h3 id="ai-automation">AI Automation</h3>

<p>在主页有AI自动推荐，我用的 deepseek-v3-reasoner ，支持 web_search ， browser 本来想用 google search engine 的，但是好像27年停止支持了（然后好像不会再支持了，回头再去官方docs看一下），然后就改成 exa 了，新账号有20刀的额度，感觉能用一段时间。整个推荐是由 scripts/update_daliy.py 和 .github/workflow/daily_update.yml 实现的，我配置了一个 corn ，时间设的凌晨一点半。对于推荐的内容，我做了个 long_memory_cache ， update_daily 里有 get_realtime_context()会调用 GitHub API 来把昨天github上高星的五个项目喂给ds，然后 _data/history.json 作为历史推荐记录可以防止ds每天推荐同样的内容。
这样就是每天会自动运行 update_daily.py，update_daily.py 会调用 deepseek ，获取推荐数据，然后更新到 _data/recommendation.yml 里，最后 github action 会自动 commit 并 push 到远程仓库。</p>

<p>好像目前网站就这么多内容？_layout/ 和 _includes/ 下的文件都是用来渲染页面的，assets/ 下的文件都是静态资源，比如css，js，图片等，reponsive.css 做的是对各种异形屏的适应，比如移动端。</p>

<p>没写readme，但是好像也不需要readme，反正也没什么复杂功能..</p>

<h2 id="后续重构想法">后续重构想法</h2>

<p>为什么我想重构个人网站？
不知道，但是我知道 githubio 只有1G的空间（确实如果只写文字博客是写不完的），虽然之前配置了cos，但是又改回去了，倒不是因为 cos 要付费，感觉东西保存在自己这还是好点，也方便我备份（虽然现在也没有什么要备份的就是了），重构顺便帮助我学习其他技术栈？还真可以吧。初步想法是 Vue3 + TypeScirpt后端，也想过Rust，但是这破网站也不需要什么性能吧，我不信这网站能有超高并发..不过后续学学倒不是什么问题。
差不多就这么多内容。</p>]]></content><author><name></name></author><category term="emo" /><category term="随笔" /><category term="软件开发" /><category term="版本控制" /><category term="编程工具" /><category term="网络配置" /><summary type="html"><![CDATA[很早之前想做个人网站，然后大二的时候简单用springboot和vue搭建了一个（作为一个课程的大作业），交完报告和演示之后没有再运营，然后就无了。 然后看到了别人githubio，就想起来做这个网站，所以想先记录一下这个网站的整体架构，以及后续的重构想法。]]></summary></entry><entry><title type="html">git命令</title><link href="/study/2026/02/25/gitcommands.html" rel="alternate" type="text/html" title="git命令" /><published>2026-02-25T22:58:48+08:00</published><updated>2026-03-19T12:20:28+08:00</updated><id>/study/2026/02/25/gitcommands</id><content type="html" xml:base="/study/2026/02/25/gitcommands.html"><![CDATA[<blockquote>
  <p>总结了一下自己用的 git 命令。</p>
</blockquote>

<h2 id="1-基本配置">1. 基本配置</h2>

<h3 id="11-配置用户名和邮箱">1.1 配置用户名和邮箱</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git config --global user.name 'username'
</code></pre></div></div>

<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git config --global user.email 'email'
</code></pre></div></div>

<h3 id="12-配置默认文本编辑器">1.2 配置默认文本编辑器</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git config --global core.editor 'editor'
</code></pre></div></div>

<h3 id="13-初始化仓库">1.3 初始化仓库</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git init
</code></pre></div></div>

<h3 id="14-克隆仓库">1.4 克隆仓库</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git clone 'url'
</code></pre></div></div>

<h2 id="2-基本操作">2. 基本操作</h2>

<h3 id="21-查看状态哪些文件还没提交哪些文件修改过">2.1 查看状态（哪些文件还没提交，哪些文件修改过）</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git status
</code></pre></div></div>

<h3 id="22-添加文件到暂存区">2.2 添加文件到暂存区</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git add 'file'
</code></pre></div></div>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git add .
</code></pre></div></div>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git add folder/..
</code></pre></div></div>

<h3 id="23-提交变更指明进行了什么变更">2.3 提交变更（指明进行了什么变更）</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git commit -m 'message'
</code></pre></div></div>

<h3 id="24-拉取远程更新">2.4 拉取远程更新</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git pull
</code></pre></div></div>
<p><strong>建议用 git pull –rebase 而不是 git fetch 后 git merge ，因为 git pull 会自动合并、并且 rebase 可以使提交历史更加线性。</strong></p>

<h3 id="25-推送本地变更到远程仓库">2.5 推送本地变更到远程仓库</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git push
</code></pre></div></div>

<h3 id="26-查看历史记录图">2.6 查看历史记录图</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git log --graph
</code></pre></div></div>

<h2 id="3-分支操作">3. 分支操作</h2>

<h3 id="31-查看分支">3.1 查看分支</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git branch
</code></pre></div></div>

<h3 id="32-创建分支">3.2 创建分支</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git branch 'branch_name'
</code></pre></div></div>

<h3 id="33-创建并且切换到该分支">3.3 创建并且切换到该分支</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git checkout -b 'branch_name'
</code></pre></div></div>
<p><strong>去掉 -b 就是切换分支</strong></p>

<h3 id="34-合并分支">3.4 合并分支</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git merge 'branch_name'
</code></pre></div></div>

<h3 id="35-删除分支">3.5 删除分支</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git branch -d 'branch_name'
</code></pre></div></div>
<p><strong>建议多创几个分支进行开发，若只在主分支（main/master等）进行开发，遇到较大 bug 只能 rollback 到上一个提交点，没有备份。</strong></p>

<h2 id="4-复原操作">4. 复原操作</h2>

<h3 id="41-查看远程和本地的差异">4.1 查看远程和本地的差异</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git diff
</code></pre></div></div>

<h3 id="42-丢弃当前工作区的更改">4.2 丢弃当前工作区的更改</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git restore &lt;file&gt;
</code></pre></div></div>

<h3 id="43-撤销此次-commit-但是保留更改">4.3 撤销此次 commit 但是保留更改</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git reset --soft HEAD~1
</code></pre></div></div>
<p><strong>如果把 soft 改成 hard，那就是撤销此次 commit 并且丢弃所有更改，一般不用，比较危险</strong></p>

<h3 id="44-创建一个新提交来撤销之前的提交">4.4 创建一个新提交来撤销之前的提交</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git revert &lt;commit_id&gt;
</code></pre></div></div>

<h3 id="45-查看代码是谁写的">4.5 查看代码是谁写的</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git blame &lt;file&gt;
</code></pre></div></div>

<h2 id="5-临时缓存">5. 临时缓存</h2>

<h3 id="51-暂存工作区更改">5.1 暂存工作区更改</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git stash
</code></pre></div></div>

<h3 id="52-查看暂存列表">5.2 查看暂存列表</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git stash list
</code></pre></div></div>

<h3 id="53-恢复暂存但是不删除list">5.3 恢复暂存但是不删除list</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git stash apply
</code></pre></div></div>

<h3 id="54-恢复最近一次stash">5.4 恢复最近一次stash</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git stash pop
</code></pre></div></div>

<h2 id="6-其他命令">6. 其他命令</h2>

<h3 id="61-变基操作">6.1 变基操作</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git rebase &lt;branch_name&gt;
</code></pre></div></div>

<h3 id="62-解决冲突之后再变基">6.2 解决冲突之后再变基</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git rebase --continue
</code></pre></div></div>

<h3 id="63-放弃变基">6.3 放弃变基</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git rebase --abort
</code></pre></div></div>

<h3 id="64-选择一次-commit-应用到当前分支">6.4 选择一次 commit 应用到当前分支</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git cherry-pick &lt;commit_id&gt;
</code></pre></div></div>

<h3 id="65-查看存储库占用">6.5 查看存储库占用</h3>
<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>git count-objects -vH
</code></pre></div></div>]]></content><author><name></name></author><category term="study" /><category term="Git" /><category term="版本控制" /><category term="编程工具" /><category term="技术教程" /><category term="软件开发" /><summary type="html"><![CDATA[总结了一下自己用的 git 命令。]]></summary></entry><entry><title type="html">3D 彼女感想</title><link href="/anime/2026/02/22/Dongman.html" rel="alternate" type="text/html" title="3D 彼女感想" /><published>2026-02-22T20:14:52+08:00</published><updated>2026-02-22T20:14:52+08:00</updated><id>/anime/2026/02/22/Dongman</id><content type="html" xml:base="/anime/2026/02/22/Dongman.html"><![CDATA[<blockquote>
  <p>本人看完 3D 彼女后的一些感想。</p>
</blockquote>

<p>上上周看完的。
不知道从什么时候开始，看动漫不喜欢跳oped，也许是op是提醒我准备看了，ed是让我好好回顾一下这话讲了什么内容。校园恋爱番不仅仅是想让我看男女主之间的曲折恋情，还让我看到了男女主在故事中逐渐成长，这才是我真正喜欢的部分：成长。
在这部青春恋爱番中，我看到了筒子原本一个阴角二次元宅男，在遇到色叶之后，慢慢变得成熟，慢慢的褪去了自负，还有伊藤、石野等，让我看到了大家在进步，在最后二十五岁了，男女主重逢结婚、六人互相都有联系，让我真的很开心，这种有深度的恋爱番真是无法抵抗。🙏🙏🙏</p>

<p><img src="/assets/images/Anime(1)/amine1.jpg" alt="3D彼女" />
<img src="/assets/images/Anime(1)/anime2.jpg" alt="3D彼女" /></p>]]></content><author><name></name></author><category term="anime" /><category term="恋爱番" /><category term="成长" /><category term="3D彼女" /><summary type="html"><![CDATA[本人看完 3D 彼女后的一些感想。]]></summary></entry><entry><title type="html">SSH 远程连接配置指南（Win to Win）</title><link href="/study/2026/02/22/ssh-config-win2win.html" rel="alternate" type="text/html" title="SSH 远程连接配置指南（Win to Win）" /><published>2026-02-22T20:14:52+08:00</published><updated>2026-02-22T20:14:52+08:00</updated><id>/study/2026/02/22/ssh-config-win2win</id><content type="html" xml:base="/study/2026/02/22/ssh-config-win2win.html"><![CDATA[<p>这篇文章总结了在两台 Windows 设备之间配置 SSH 远程连接的完整流程，涵盖了从基础安装到虚拟局域网穿透的各种坑点。</p>

<h2 id="前期配置">前期配置</h2>

<h3 id="1-安装并启动-openssh-server">1. 安装并启动 OpenSSH Server</h3>
<p>首先在 PowerShell 中检查是否已安装：</p>

<div class="language-powershell highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="c"># 检查是否已安装 </span><span class="w">
</span><span class="n">Get-WindowsCapability</span><span class="w"> </span><span class="nt">-Online</span><span class="w"> </span><span class="o">|</span><span class="w"> </span><span class="n">Where-Object</span><span class="w"> </span><span class="nx">Name</span><span class="w"> </span><span class="o">-like</span><span class="w"> </span><span class="s1">'OpenSSH.Server*'</span><span class="w">
</span></code></pre></div></div>

<p>如果 <code class="language-plaintext highlighter-rouge">State</code> 是 <code class="language-plaintext highlighter-rouge">NotPresent</code>，运行以下命令安装：</p>

<div class="language-powershell highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="c"># 安装 OpenSSH Server</span><span class="w">
</span><span class="n">Add-WindowsCapability</span><span class="w"> </span><span class="nt">-Online</span><span class="w"> </span><span class="nt">-Name</span><span class="w"> </span><span class="nx">OpenSSH.Server~~~~0.0.1.0</span><span class="w">
</span></code></pre></div></div>

<p>安装完成后，启动服务：</p>

<div class="language-powershell highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="c"># 启动服务 </span><span class="w">
</span><span class="n">Start-Service</span><span class="w"> </span><span class="nx">sshd</span><span class="w">

</span><span class="c"># 设置为开机自启</span><span class="w">
</span><span class="n">Set-Service</span><span class="w"> </span><span class="nt">-Name</span><span class="w"> </span><span class="nx">sshd</span><span class="w"> </span><span class="nt">-StartupType</span><span class="w"> </span><span class="s1">'Automatic'</span><span class="w">
</span></code></pre></div></div>

<h3 id="2-配置-windows-防火墙">2. 配置 Windows 防火墙</h3>
<p>首先运行以下命令添加放行规则：</p>

<div class="language-powershell highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="kr">if</span><span class="w"> </span><span class="p">(</span><span class="o">!</span><span class="p">(</span><span class="n">Get-NetFirewallRule</span><span class="w"> </span><span class="nt">-Name</span><span class="w"> </span><span class="s2">"OpenSSH-Server-In-TCP"</span><span class="w"> </span><span class="nt">-ErrorAction</span><span class="w"> </span><span class="nx">SilentlyContinue</span><span class="p">))</span><span class="w"> </span><span class="p">{</span><span class="w">
    </span><span class="n">New-NetFirewallRule</span><span class="w"> </span><span class="nt">-Name</span><span class="w"> </span><span class="s1">'OpenSSH-Server-In-TCP'</span><span class="w"> </span><span class="nt">-DisplayName</span><span class="w"> </span><span class="s1">'OpenSSH Server (sshd)'</span><span class="w"> </span><span class="nt">-Enabled</span><span class="w"> </span><span class="nx">True</span><span class="w"> </span><span class="nt">-Direction</span><span class="w"> </span><span class="nx">Inbound</span><span class="w"> </span><span class="nt">-Protocol</span><span class="w"> </span><span class="nx">TCP</span><span class="w"> </span><span class="nt">-Action</span><span class="w"> </span><span class="nx">Allow</span><span class="w"> </span><span class="nt">-LocalPort</span><span class="w"> </span><span class="nx">22</span><span class="w">
</span><span class="p">}</span><span class="w"> </span><span class="kr">else</span><span class="w"> </span><span class="p">{</span><span class="w">
    </span><span class="n">Write-Host</span><span class="w"> </span><span class="s2">"Firewall rule already exists."</span><span class="w">
</span><span class="p">}</span><span class="w">
</span></code></pre></div></div>

<p><strong>关键一步：网络配置检查</strong>
Windows 默认会拦截“<strong>公用网络 (Public)</strong>”下的几乎所有入站连接。如果网络被识别为公用，改为 <strong>专用 (Private)</strong>：</p>

<div class="language-powershell highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="c"># 查看当前网络类别</span><span class="w">
</span><span class="n">Get-NetConnectionProfile</span><span class="w">

</span><span class="c"># 将所有网络设置为专用（建议在家庭/实验室局域网操作）</span><span class="w">
</span><span class="n">Get-NetConnectionProfile</span><span class="w"> </span><span class="o">|</span><span class="w"> </span><span class="n">Set-NetConnectionProfile</span><span class="w"> </span><span class="nt">-NetworkCategory</span><span class="w"> </span><span class="nx">Private</span><span class="w">
</span></code></pre></div></div>

<h3 id="3-检查服务监听状态">3. 检查服务监听状态</h3>
<p>查看服务器端口是否在正常监听：</p>

<div class="language-powershell highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="n">netstat</span><span class="w"> </span><span class="nt">-an</span><span class="w"> </span><span class="o">|</span><span class="w"> </span><span class="n">findstr</span><span class="w"> </span><span class="p">:</span><span class="nx">22</span><span class="w">
</span></code></pre></div></div>

<ul>
  <li><strong>有输出 (LISTENING)</strong>：服务器端正常。</li>
  <li><strong>无输出</strong>：尝试重启服务 <code class="language-plaintext highlighter-rouge">Restart-Service sshd</code>。</li>
</ul>

<hr />

<h2 id="虚拟局域网连接-zerotier-等">虚拟局域网连接 (ZeroTier 等)</h2>

<p>如果通过虚拟局域网连接，需要额外放开地址限制：</p>

<h3 id="1-放开远程地址限制">1. 放开远程地址限制</h3>
<div class="language-powershell highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="n">Set-NetFirewallRule</span><span class="w"> </span><span class="nt">-Name</span><span class="w"> </span><span class="s2">"OpenSSH-Server-In-TCP"</span><span class="w"> </span><span class="nt">-RemoteAddress</span><span class="w"> </span><span class="nx">Any</span><span class="w">
</span></code></pre></div></div>

<h3 id="2-针对特定网段放行-以-zerotier-为例">2. 针对特定网段放行 (以 ZeroTier 为例)</h3>
<div class="language-powershell highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="n">New-NetFirewallRule</span><span class="w"> </span><span class="nt">-DisplayName</span><span class="w"> </span><span class="s2">"Allow ZeroTier SSH"</span><span class="w"> </span><span class="nt">-Direction</span><span class="w"> </span><span class="nx">Inbound</span><span class="w"> </span><span class="nt">-LocalPort</span><span class="w"> </span><span class="nx">22</span><span class="w"> </span><span class="nt">-Protocol</span><span class="w"> </span><span class="nx">TCP</span><span class="w"> </span><span class="nt">-Action</span><span class="w"> </span><span class="nx">Allow</span><span class="w"> </span><span class="nt">-RemoteAddress</span><span class="w"> </span><span class="nx">192.168.191.0/24</span><span class="w">
</span></code></pre></div></div>

<hr />

<h2 id="如何进行连接">如何进行连接</h2>

<h3 id="1-基础连接">1. 基础连接</h3>
<p>使用终端连接：</p>
<div class="language-bash highlighter-rouge"><div class="highlight"><pre class="highlight"><code>ssh username@serverIP
</code></pre></div></div>
<p><em>注：如果不清楚用户名，可在服务器端运行 <code class="language-plaintext highlighter-rouge">whoami</code>。</em></p>

<h3 id="2-使用-ssh-密钥连接">2. 使用 SSH 密钥连接</h3>
<div class="language-bash highlighter-rouge"><div class="highlight"><pre class="highlight"><code>ssh <span class="nt">-i</span> <span class="s2">"密钥路径"</span> username@serverIP
</code></pre></div></div>

<hr />

<h2 id="进阶远程开发与免密">进阶：远程开发与免密</h2>

<h3 id="1-vscode-远程开发">1. VSCode 远程开发</h3>
<p>在扩展市场搜索并安装 <strong>Remote - SSH</strong>。</p>

<h3 id="2-配置免密登录">2. 配置免密登录</h3>
<p>在本地机器运行以下命令，将公钥发送至服务器：</p>
<div class="language-powershell highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="n">ssh-copy-id</span><span class="w"> </span><span class="nx">username</span><span class="err">@</span><span class="nx">serverIP</span><span class="w">
</span></code></pre></div></div>

<blockquote>
  <p><strong>安全提示</strong>：如果电脑上装了“火绒”或“360”，检查它们的“网络防护”功能，这些软件有时会越过系统防火墙直接拦截 SSH 请求。</p>
</blockquote>]]></content><author><name></name></author><category term="study" /><category term="Windows" /><category term="远程连接" /><category term="OpenSSH" /><category term="网络配置" /><summary type="html"><![CDATA[这篇文章总结了在两台 Windows 设备之间配置 SSH 远程连接的完整流程，涵盖了从基础安装到虚拟局域网穿透的各种坑点。]]></summary></entry><entry><title type="html">画了2026新年米浴</title><link href="/paint/2026/02/22/Rice.html" rel="alternate" type="text/html" title="画了2026新年米浴" /><published>2026-02-22T20:14:52+08:00</published><updated>2026-02-22T20:14:52+08:00</updated><id>/paint/2026/02/22/Rice</id><content type="html" xml:base="/paint/2026/02/22/Rice.html"><![CDATA[<blockquote>
  <p>随笔</p>
</blockquote>

<p>https://x.com/Wolfram1907/status/2023428744216772878</p>]]></content><author><name></name></author><category term="paint" /><category term="米浴" /><category term="绘画" /><category term="新年" /><category term="随笔" /><category term="图像" /><summary type="html"><![CDATA[随笔]]></summary></entry><entry><title type="html">弱角友崎同学中对みみみ的感想</title><link href="/anime/2026/02/22/Dongman2.html" rel="alternate" type="text/html" title="弱角友崎同学中对みみみ的感想" /><published>2026-02-22T20:14:52+08:00</published><updated>2026-02-22T21:28:14+08:00</updated><id>/anime/2026/02/22/Dongman2</id><content type="html" xml:base="/anime/2026/02/22/Dongman2.html"><![CDATA[<p>印象最深的角色就是みみみ了。</p>

<p>成绩第二体育第二学生会长票数第二甚至连恋爱都是第二..
第一和第二也许能力差距不大，但是人们只记得住第一，却无视第二的付出..
看着友崎一点点成长以及みみみ对男主情感的变化，从友崎帮助みみみ出谋划策学生会长选举，到提出与友崎一起表演夫妻相声，到最后みみみ还是劝说男主去追风香..真的非常喜欢みみみ的性格..这么好一个女孩..在动漫里给她的却处处是打击，看完动漫还是深感可惜，没有去看漫画，漫画好像后面也没多少内容了，有时间会补一下，但是希望みみみ在那个次元中能获得属于自己的幸福，也希望友崎和风香能一直在一起，葵和友崎一直在游戏中成为对手..
看了这么多校园恋爱类动漫，感觉有一部分出现第二季的第一季一般是高一，第二季是高二，最后是个文化祭，然后因为高三很忙就完结了，但是在我心里却有一种未完结的感觉..</p>]]></content><author><name></name></author><category term="anime" /><category term="弱角友崎同学" /><category term="恋爱番" /><category term="成长" /><summary type="html"><![CDATA[印象最深的角色就是みみみ了。]]></summary></entry></feed>