RL解锁LLM超强记忆!Memory-R1:小样本训练,性能狂飙40%+!
RL解锁LLM超强记忆!Memory-R1:小样本训练,性能狂飙40%+!
大模型总“想太多”?LLM新算法DRQA:动态配额防过度思考,节省30% token消耗!
大模型总“想太多”?LLM新算法DRQA:动态配额防过度思考,节省30% token消耗!
为什么AI会“过度自信”?CURE方法让LLM“保持好奇心”
为什么AI会“过度自信”?CURE方法让LLM“保持好奇心”
Transformer杀手?谷歌DeepMind新架构MoR实现两倍推理速度
Transformer杀手?谷歌DeepMind新架构MoR实现两倍推理速度
为何大语言模型总爱用“delve”,这对AI对齐意味着什么
为何大语言模型总爱用“delve”,这对AI对齐意味着什么
龙石数据
咨询电话: 400-800-9577

400-800-9577