Bear
  • 首页
  • 目录
  • 标签
  • latex识别
  • 每日arxiv
  • 关于
顽石从未成金,仍愿场上留足印。

PerturboLLaVA:通过扰动视觉训练减少多模态幻觉

(ICLR 2025)
2025-09-08
#深度学习 #多模态 #大模型

对比解码之VCD

(CVPR 2024 Highlight) 《Mitigating Object Hallucinations in Large Vision-Language Models through Visual Contrastive》
2025-09-07
#深度学习 #多模态 #大模型

ALPHAEDIT:NULL-SPACE CONSTRAINED KNOWLEDGE EDITING FOR LANGUAGE MODELS

(ICLR 2025 outstanding paper)
2025-09-03
#深度学习

kNN-LMs:一种RAG和LLM前的记忆挂靠方法

(ICLR 2020) 《Generalization through Memorization: Nearest Neighbor Language Models》
2025-09-02
#深度学习

DINO系列

本文将介绍facebook/meta出品的DINOv1~v3。 DINO = Self-distillation with no labels
2025-08-31
#深度学习

ICR 探针:追踪隐藏状态动态以在 LLMs 中实现可靠的幻觉检测

(ACL 2025) 目前存在多种幻觉检测方法。主流方法通过一致性检查或参考对比分析生成结果 (对比解码等),而基于概率的方法则关注 Logit概率的不确定性。 另一种方法是检查大语言模型各层中的隐状态(例如嵌入向量)以检测幻觉 。基于输出或 Logit 概率的方法通常需要真实值参考或多次生成以保证一致性。相比之下,基于隐状态的检测方法具有无需参考的优势,无需依赖外部资源。 当前基于隐状态的幻觉检
2025-08-29
#深度学习 #大模型

Gram矩阵的妙用

Gram矩阵介绍给定一个内积空间中的一组向量 v1,v2,…,vn,它们的Gram矩阵 G 是一个n×n的方阵,其元素 Gij 定义为向量 vi 和 vj 的内积。
2025-08-26
#深度学习

ICL是低秩更新

ICL (In-Context Learning)是一种在不更新模型参数(即不进行梯度下降或微调)的情况下,通过在输入(即“上下文”)中提供少量示例来指导模型完成特定任务的能力的方法。
2025-08-17
#深度学习

RobustKV:通过 KV 驱逐机制保护大型语言模型免受越狱攻击

(ICLR 2025)
2025-08-13
#深度学习 #大模型

InLine attention:弥合Softmax与线性注意力机制的差距

(NeurIPS 2024)
2025-08-12
#深度学习
1…56789…30

搜索

LJX Hexo
博客已经运行 天