2023年05月17日 17:44:13
谷歌新AI大语言模型PaLM2训练数据量达3.6万亿个token 为前一代5倍
《科创板日报》17日讯,谷歌日前发布最新通用大语言模型PaLM2。据CNBC获取的一份内部文件显示,该模型采用3.6万亿个token数据进行训练。至于去年发布的前一版本PaLM,当时其训练数据约7800亿个token,是最新一代的1/5左右。
收藏
353W
我要评论
图片
欢迎您发表有价值的评论,发布广告和不和谐的评论都将会被删除,您的账号将禁止评论。
发表评论
关联话题
6.08W 人关注
5.4W 人关注