训练越多反而越差?多模态AI模型或迎研发范式转折点
2025-03-31
美国多所大学的研究团队发现'灾难性过度训练'现象:过量预训练数据反而导致模型性能下降。实验显示当LLM预训练token超过一定量后,指令调优和多模态微调性能会出现显著退化。研究指出长时间预训练会增加模型参数的敏感度,使后续修改更容易丢失原有知识,挑战了'数据规模越大越好'的行业共识,提示需重新审视模型扩展策略。


本页面内容由AI提炼生成,无法确保完全真实准确,不代表123彩票app稳定版下载
官方立场,不构成投资建议。如需阅读详细说明,请点击此处
