谷歌新版PaLM2训练数据量为前一代5倍_热点
(资料图)
据《科创板日报》消息,谷歌日前发布最新通用大语言模型PaLM2。据CNBC获取的一份内部文件显示,该模型采用3.6万亿个token数据进行训练。至于去年发布的前一版本PaLM,当时其训练数据约7800亿个token,是最新一代的1/5左右。
标签:
为您推荐
-
【ETF全知道热点收评】今日重点聊聊国防军工、地产两个板块的交易和基本面情况。资料显示,国防军工ETF(51
2023-05-17
-
国家能源招标网发布江苏公司常州电厂2×100万千瓦机组扩建项目汽机胶球清洗设备采购公开招标项目招标公告,
2023-05-17