发布网友 发布时间:2024-10-24 12:30
共1个回答
热心网友 时间:21小时前
SIGKDD 2023的亮点在于,我们提出了一种创新方法Domain-Specific Risk Minimization (DRM),以提升在未知目标领域的泛化性能。在传统域自适应(DA)和泛化(DG)研究中,通常假设有带标签的源域数据,目标是提高模型在不同域间的适应能力。然而,当面对只有源域数据且目标域未知的情况,如何增强模型的泛化性成为挑战。
传统DG方法往往依赖于预训练模型的微调,但忽视了目标域信息,而TTA方法虽然有研究,但往往需要针对测试样本进行模型调整。我们的研究突破了这些*,通过理论分析,我们提出了一种新的泛化界,考虑了源域和目标域之间的适应性差距,这对于不利用目标样本的泛化至关重要。
DRM框架设计巧妙,通过维护共享编码器和多个分类头,测试时动态调整分类器权重,以此减小适应性差距。实验结果表明,与现有DG和TTA方法相比,DRM在性能上显著提升,同时具有较少的参数和更快的训练速度,对于伦理问题的处理也有所改进。尽管DRM需要额外的分类器训练,但通过优化技术和模型设计,这一挑战可以得到缓解。
如果你对这个领域的研究感兴趣,欢迎访问我们的GitHub,那里有更多关于OOD、因果性、鲁棒性、优化等前沿研究的资源和笔记。
热心网友 时间:21小时前
SIGKDD 2023的亮点在于,我们提出了一种创新方法Domain-Specific Risk Minimization (DRM),以提升在未知目标领域的泛化性能。在传统域自适应(DA)和泛化(DG)研究中,通常假设有带标签的源域数据,目标是提高模型在不同域间的适应能力。然而,当面对只有源域数据且目标域未知的情况,如何增强模型的泛化性成为挑战。
传统DG方法往往依赖于预训练模型的微调,但忽视了目标域信息,而TTA方法虽然有研究,但往往需要针对测试样本进行模型调整。我们的研究突破了这些*,通过理论分析,我们提出了一种新的泛化界,考虑了源域和目标域之间的适应性差距,这对于不利用目标样本的泛化至关重要。
DRM框架设计巧妙,通过维护共享编码器和多个分类头,测试时动态调整分类器权重,以此减小适应性差距。实验结果表明,与现有DG和TTA方法相比,DRM在性能上显著提升,同时具有较少的参数和更快的训练速度,对于伦理问题的处理也有所改进。尽管DRM需要额外的分类器训练,但通过优化技术和模型设计,这一挑战可以得到缓解。
如果你对这个领域的研究感兴趣,欢迎访问我们的GitHub,那里有更多关于OOD、因果性、鲁棒性、优化等前沿研究的资源和笔记。