发布日期:2025-05-23 06:21 点击次数:200
数据之于东谈主工智能有多遑急?12月4日,在智能期间的全球更动互助平行磋议会上,香港科技大学校董会主席、好意思国工程院院士沈向洋列举了多组数据。
“1T数据差未几等于500万本书,或者是5000万篇论文的数据。寰宇上通盘的书加起来,数据量差未几等于21T。”沈向洋暗意,“一个东谈主长到20岁,在得到相比好讲授的情况下,约略能够接纳0.0002T的数据,即差未几1000本书。”
沈向洋先容,GPT3刚推出时,约略是三年前。当时,大模子使用的数据量已达2T,格外于2万亿字节。GPT4推出来时大要是2年前,检修这款大模子用到的数据量约略为20T。这是什么观念?格外至今天互联网上所罕有据清洗干净后的总数。
“已往两年,环球齐相称戮力地推出GPT5。到今天死心,GPT5还莫得作念出来,很大一个原因等于数据的短少。”沈向洋判断,作念出GPT5这么了不得的新一代系统,本体上可能需要200T(即200个万亿字节)的数据量。“那么这些数据到那里去取得?互联网上还是用尽了,是以改日很遑急的等于要‘东谈主造数据’。”
采写:南边+记者 李鹏程
影相:南边+记者 苏韵桦赌钱赚钱app