标签:数据规模

最强开源机器人大脑!蚂蚁两万小时真机数据开启物理AI缩放定律

蚂蚁集团开源的具身智能基座模型LingBot-VLA标志着机器人学习领域的重要突破。该模型通过两万小时真机数据验证了机器人学习存在类似大语言模型的缩放定律,且...

遗憾不?原来百度2017年就研究过Scaling Law,连Anthropic CEO灵感都来自百度

在人工智能领域,Scaling Law是一个关键概念,它描述了深度学习模型的泛化误差和模型大小随着训练集规模的增长而呈现出可预测的幂律关系。这一概念最早被百度...

Scaling Law百度最早提出?!OpenAI/Claude都受它启发,Ilya出现在致谢名单中

在深度学习领域,Scaling Law的概念最早由百度在2017年提出,而非后来的OpenAI。这项研究由吴恩达领导的百度硅谷人工智能实验室(SVAIL)系统团队进行,探讨...

清华大学获X-Embodiment最佳论文奖,机器人顶会CoRL 2024获奖名单出炉

清华大学高阳团队在CoRL 2024会议上获得X-Embodiment Workshop最佳论文奖,其获奖论文《Data Scaling Laws in Imitation Learning for Robotic Manipulation...

240万亿巨量数据被洗出,足够训出18个GPT-4!全球23所机构联手,清洗秘籍公开

随着人工智能技术的快速发展,数据规模对模型性能的影响日益显著。Llama 3的研究揭示了在不改变模型架构的前提下,数据量从2万亿增加到15万亿可以显著提升模...