全球简讯:大语言模型中的涌现现象是不是伪科学?
程序员客栈 2023-06-17 20:46:59

Datawhale干货

作者:平凡@知乎,诺桑比亚大学,在读博士


(资料图)

今天晚上,花了一点儿时间看了两篇文章:

《Emergent Abilities of Large Language Models》[1]

《PROGRESS MEASURES FOR GROKKING VIA MECHANISTIC INTERPRETABILITY》[2]

这两篇讲的都是emergent behavior,即涌现现象。

大规模神经网络下的涌现现象

在机器学习中使用大规模神经网络时,由于增加了参数数量、训练数据或训练步骤等因素,出现了定性上的新能力和性质,这些能力和性质在小规模神经网络中往往是不存在的。

第一篇文章举了这个例子,每个图都可以理解为一个任务,横轴是神经网络的规模,而纵轴是准确率,可以理解为模型的性能。

我们拿图一来看,在10的22次方前,这些模型基本上的性能基本上都很稳定在0附近,而在10的22以后,突然在10的24次方上获得了很大的性能提升,在其他的几个任务上都表现出类似的特征。

意想不到的效果

第二篇文章更是有趣,我直接把推特一位博主的评论引用在这里:

作者发现,当我们训练用网络计算同余加法 a+b = ? (mod c) 时,网络在某个时间突然获得了 100% 准确率。分析发现,神经网络实际上“顿悟”了使用傅立叶变换来计算同余加法!这个算法可以证明是正确的, 反人类直觉的。

从这俩例子里面我的感受是,只要数据量足够且真实,且模型没有硬错误的前提下,不断的训练说不定真的能够产生一些意想不到的效果。

还有就是我觉得人类现在积累的知识并不少,但是系统的少,零星的多,如果类似ChatGPT这样的大模型可以拿所有的人类已有知识进行不断学习的话,我觉得有很大概率会让它涌现出意想不到的能力。

甚至可能把人类的生产力解放提前很多。

参考

1.https://arxiv.org/pdf/2206.07682.pdf2.https://arxiv.org/pdf/2301.05217.pdf

全球简讯:大语言模型中的涌现现象是不是伪科学?

2023-06-17

同旁内角互补的定义(同旁内角互补是定义吗)

2023-06-17

业界重磅!腾讯、高瓴加持,顺丰入股!营收连年暴增,这一行业“卷王”冲刺上市-当前要闻

2023-06-17

焦点简讯:2023东北教育装备展示会在长春开幕

2023-06-17

6月17日财经早餐:日本央行维持超低利率,日元兑美元跌至六个月低点

2023-06-17

突发!龙湾超高层10.8亿元起拍地块,终止交易···

2023-06-17

林肯领航员L乘坐空间表现怎么样及领航员L内饰怎么样 世界观天下

2023-06-17

堪的意思_堪

2023-06-17

世界看热讯:高龄能不能转行做程序员?

2023-06-17

多栖音乐人黄舒骏:没做过的事,更值得去做

2023-06-17

上海一男童在商场被陌生人带走?真相是……_焦点快报

2023-06-17

世界关注:必胜客中国第3000家店开业 三十三年比萨专家持续领跑餐饮行业

2023-06-17

《熊猫花花》:“熊猫作家”记录花花成长故事|天天时讯

2023-06-17

徐汇再添一家社区食堂,承包你的一日三餐 世界观速讯

2023-06-17

云南省积极推动碳金融发挥赋能作用|简讯

2023-06-17

探访高考评卷现场:各地严把评卷质量关_全球滚动

2023-06-17

振华风光:6月16日融资买入636.72万元,融资融券余额1.44亿元 世界快看点

2023-06-17

全球最新:京剧票友老生唱段_京剧票友

2023-06-17

锋线重组!曼联5000万镑报价芒特 弃凯恩追奥斯梅恩

2023-06-17

怀孕肚子疼要生了视频_刚怀孕肚子疼是怎么回事

2023-06-17