Bear
  • 首页
  • 目录
  • 标签
  • latex识别
  • 每日arxiv
  • 关于
顽石从未成金,仍愿场上留足印。

So You Want to Be an Academic?

转自《所以你想成为一名学者吗?我希望我在研究生院早点就知道什么》l。作者是是约翰霍普金斯大学计算机科学系的助理教授。担任过ICCV 2025、CVPR 2025、WACV 2025 的AC。
2025-10-06
#笔记 #演讲

通过外推一个巨大且假设的语言模型的概率来解释和改进对比解码

(EMNLP 2024 Oral)
2025-09-28
#深度学习 #大模型

五篇幻觉相关论文速览

师兄组会所提到。 2508.20181,2410.15778,2311.07362,2407.06192,2406.01920
2025-09-27
#深度学习 #多模态 #大模型

Machine Unlearning

Lucas Bourtoule 等人于 2019年在 arXiv 上发表,并最终在 2021年的 IEEE Symposium on Security and Privacy (S&P) 上正式发表的论文 《Machine Unlearning》。 比较早期的模型,方法比较朴素。
2025-09-26
#深度学习

MokA:Multimodal Low-Rank Adaptation for MLLMs

(NIPS 2025)
2025-09-19
#深度学习 #大模型

Mitigating Hallucinations in Large Vision-Language Models by Self-Injecting Hallucinations

(EMNLP 2025 ) Autonomous Preference Alignment via Self-Injection =APASI
2025-09-17
#深度学习 #大模型

Nullu:通过 HalluSpace 投影减轻大型视觉-语言模型中的对象幻觉

(CVPR 2025) 在视觉语言模型中,物体幻觉(Object Hallucinations,OH)指的是模型在生成图像描述时,错误地提到了图像中并不存在的物体。
2025-09-15
#深度学习 #大模型

Vision Transformers Don't Need Trained Registers

ICLR 2024的《VISION TRANSFORMERS NEED REGISTERS》指出了VIT中也会出现类似attention sinks的伪影。对于REGISTERS我们是否需要可训练呢?
2025-09-14
#深度学习 #大模型

LLM中MOE的安全行为

(arxiv 2025) [2509.09660] Steering MoE LLMs via Expert (De)Activation [2506.17368] SAFEx: Analyzing Vulnerabilities of MoE-Based LLMs via Stable Safety-critical Expert Identification
2025-09-13
#深度学习 #大模型

DoLa:通过对比层解码提高大型语言模型的事实性

(ICLR 2024) DoLa = Decoding by Contrasting Layers
2025-09-10
#深度学习 #大模型
1…45678…30

搜索

LJX Hexo
博客已经运行 天