So You Want to Be an Academic? 转自《所以你想成为一名学者吗?我希望我在研究生院早点就知道什么》l。作者是是约翰霍普金斯大学计算机科学系的助理教授。担任过ICCV 2025、CVPR 2025、WACV 2025 的AC。 2025-10-06 #笔记 #演讲
五篇幻觉相关论文速览 师兄组会所提到。 2508.20181,2410.15778,2311.07362,2407.06192,2406.01920 2025-09-27 #深度学习 #多模态 #大模型
Machine Unlearning Lucas Bourtoule 等人于 2019年在 arXiv 上发表,并最终在 2021年的 IEEE Symposium on Security and Privacy (S&P) 上正式发表的论文 《Machine Unlearning》。 比较早期的模型,方法比较朴素。 2025-09-26 #深度学习
Mitigating Hallucinations in Large Vision-Language Models by Self-Injecting Hallucinations (EMNLP 2025 ) Autonomous Preference Alignment via Self-Injection =APASI 2025-09-17 #深度学习 #大模型
Nullu:通过 HalluSpace 投影减轻大型视觉-语言模型中的对象幻觉 (CVPR 2025) 在视觉语言模型中,物体幻觉(Object Hallucinations,OH)指的是模型在生成图像描述时,错误地提到了图像中并不存在的物体。 2025-09-15 #深度学习 #大模型
Vision Transformers Don't Need Trained Registers ICLR 2024的《VISION TRANSFORMERS NEED REGISTERS》指出了VIT中也会出现类似attention sinks的伪影。对于REGISTERS我们是否需要可训练呢? 2025-09-14 #深度学习 #大模型
LLM中MOE的安全行为 (arxiv 2025) [2509.09660] Steering MoE LLMs via Expert (De)Activation [2506.17368] SAFEx: Analyzing Vulnerabilities of MoE-Based LLMs via Stable Safety-critical Expert Identification 2025-09-13 #深度学习 #大模型