2025年的SCI已完成!
7月初在CVIU(CCF-B)发表了一篇关于联邦学习与多模态大模型的论文。 研究生生涯的第二篇SCI,辛苦我了。
📁 学习日志
📆 2025-07-14
整理了一下大模型与多模态大模型的技术路线,包括基础课程、经典教材、开源项目等。 1.什么是大模型 大模型全称是大型语言模型(Large Language Model, LLM),指具有超大规模参数量(通常超过十亿个)的深度神经网络模型。 大模型是自然语言处理(NLP)领域的重要技术分支,从技术角度来看,大模型特指近年来以Transformer架构(谷歌2017年首次提出)为核心的超大规模神经网络模…
在Multimedia Systems(JCR Q1、CCF-C)上发表了一篇文章,关于Multimodal federated learning。为了提供全面的视角,整理了大量的相关工作,总结在Github仓库,希望能为MMFL的发展出一份小力。本页面提供该文章的中文摘要。 摘要 多模态联邦学习(MMFL)是一种全新的机器学习技术,它增强了传统联邦学习(FL)的能力,允许多个本地模型使用各种模态…