中文字幕国产91无码|AV成人手机在线|av成人先锋在线|911无码在线国产人人操|91蜜桃视频精品免费在线|极品美女A∨片在线看|日韩在线成人视频日韩|电影三级成人黄免费影片|超碰97国产在线|国产成人精品色情免费视频

  • +1

PPIO邊緣云聚焦音視頻底層技術(shù),探索元宇宙“登月工程”

2022-08-20 08:10
來源:澎湃新聞·澎湃號(hào)·湃客
聽全文
字號(hào)

編者按: 2021 年 Metaverse 非?;穑鸬竭B扎克伯格都不要 “face”,直接把臉書改名為 Meta。2022 年初,元宇宙首次上升為國家級(jí)戰(zhàn)略,被寫入地方 “十四五” 產(chǎn)業(yè)規(guī)劃,成為社會(huì)熱議的焦點(diǎn)話題。每一項(xiàng)技術(shù)的迭代和革新,都意味著一個(gè)新的契機(jī)、新的挑戰(zhàn),同時(shí)也是一個(gè)新的開始。元宇宙是未來,一種很大程度上會(huì)實(shí)現(xiàn)的未來,什么時(shí)候才是我們占據(jù)主動(dòng)權(quán)的最佳時(shí)機(jī)?答案就是:現(xiàn)在!想要在短時(shí)間內(nèi)實(shí)現(xiàn)元宇宙,如同 “登月工程”,需要我們從底層技術(shù)出發(fā),找到內(nèi)容生態(tài)系統(tǒng)的突破口。

本次分享將從 VR/AR 的核心指標(biāo)及實(shí)現(xiàn),云與邊緣架構(gòu)、編解碼、網(wǎng)絡(luò)傳輸路徑等多個(gè)維度,全面分析元宇宙的音視頻技術(shù)脈絡(luò),探討元宇宙時(shí)代產(chǎn)業(yè)結(jié)構(gòu)變化,介紹 PPIO 邊緣云未來如何為元宇宙提供強(qiáng)大的基礎(chǔ)設(shè)施服務(wù)。

文 / 王聞?dòng)?/p>

整理 / LiveVideoStack

今天分享一個(gè)比較實(shí)在卻又比較科幻的話題,對(duì)整個(gè)元宇宙過程做一次簡單的推演,但這個(gè)推演不是商業(yè)方向的,而是對(duì)技術(shù)做一個(gè)推演。

1、元宇宙的音視頻技術(shù)脈絡(luò)與底層技術(shù)

大家都知道近幾年中國在登月上取得了巨大的進(jìn)展,特別是在 2020 年,中國登月時(shí)對(duì)月球進(jìn)行了采集工作,一共帶回了 1.7kg 左右的月壤,是航天史上第一個(gè)登陸月球背面并采集了樣品的國家。之前 20 世紀(jì) 60 年度,美國曾經(jīng)也有幾次登月,但是美國的登月深受全球質(zhì)疑,質(zhì)疑者認(rèn)為這只是給前蘇聯(lián)導(dǎo)演得一出戲,因?yàn)榈窃聦?duì)人類沒有什么用。但是實(shí)際上,登月工程真得沒用嗎?

其實(shí)不是,登月給社會(huì)帶來了許多價(jià)值,比如我們生活中用到的設(shè)備包括無線吸塵器、鐘表更準(zhǔn)時(shí)、水更干凈、救命毯、速食食品等技術(shù),都是在登月期間所研發(fā)的重大科技成果,隨之帶來了很多商業(yè)化價(jià)值。我講這個(gè)故事的主要原因是,元宇宙聽起來離大家比較遠(yuǎn),它來源于科幻,擔(dān)心最終不一定能成為現(xiàn)實(shí)。但我演講主題中的元宇宙就好比音視頻行業(yè)的登月一樣,它雖然目標(biāo)很遠(yuǎn),但過程中一定能誕生一些對(duì)我們有幫助的技術(shù)創(chuàng)新。

首先做個(gè)自我介紹,我是王聞?dòng)?,PPIO 邊緣云聯(lián)合創(chuàng)始人兼 CEO,從 2004 年開始做音視頻,最早 PPTV 第一版是我和姚欣在學(xué)生宿舍寫出來的,后面一直專注于 P2P/CDN、直播、點(diǎn)播等相關(guān)技術(shù)上,直到 2014 年賣掉 PPTV,開始了新的創(chuàng)業(yè)歷程。2018 年和姚欣聯(lián)合創(chuàng)辦了 PPIO 邊緣云,發(fā)展靠近用戶側(cè)的邊緣節(jié)點(diǎn),主要服務(wù)音視頻行業(yè)。

說到元宇宙,它來源于什么呢?最開始,元宇宙來源于 1993 年的一本小說《雪崩》,小說里史蒂芬森將這個(gè)平行于物理世界的數(shù)字世界命名為 “Metaverse”。之后在影視作品中,元宇宙的理念一步步出現(xiàn)在《黑客帝國》等影視作品中,包括最近的電影《頭號(hào)玩家》,以及歐洲一家非常知名的蠢驢游戲公司,把元宇宙小說《雪崩》的故事場景還原成了一個(gè)游戲叫做《賽博朋克 2077》,里面幾乎刻畫了小說《雪崩》的世界,游戲中的 “超夢(mèng)” 也就是元宇宙的體驗(yàn)。從科幻的視野來看,元宇宙最終是給人以類真實(shí)世界的音視頻體驗(yàn)。

下面我們站在現(xiàn)實(shí)的角度來看元宇宙,2021 年,F(xiàn)acebook 公司在 Connect2021 大會(huì)宣布正式更名為 “Meta”,從而把 Metaverse 作為 Facebook 的戰(zhàn)略。扎克伯格一共提出了八大要素,其中第一大要素是 “身臨其境感”,F(xiàn)acebook 為身臨其境感研發(fā)出了三款硬件,第一款硬件是 Oculus,以 23 億美元收購了 Oculus 公司,并在 VR 業(yè)務(wù)上持續(xù)投入了大量研發(fā)費(fèi)用。除此之外,它自己又推出了 AR 和 MR 相關(guān)的一些硬件產(chǎn)品。扎克伯格所說的元宇宙帶來的身臨其境感,也是給人以類真實(shí)世界的體驗(yàn),這也是 VR/AR 發(fā)展到人眼感官的極致體驗(yàn)。

元宇宙一共有六大核心技術(shù),這六個(gè)單詞的首字母拼起來就是 BIGANT。其中有四個(gè)技術(shù)與音視頻相關(guān),分別是交互技術(shù)、電子游戲技術(shù)、網(wǎng)絡(luò)及運(yùn)算技術(shù)和物聯(lián)網(wǎng)技術(shù)。在元宇宙的整個(gè)發(fā)展過程中,我相信這幾個(gè)技術(shù)也會(huì)得到深度發(fā)展。

上圖是我對(duì)未來通往元宇宙的道路上,有哪些技術(shù)會(huì)被革新的拆解過程。第一,身臨其境感的全真視覺體驗(yàn)技術(shù),如何給人以類真實(shí)世界的體驗(yàn),它勢(shì)必帶來新一代顯示技術(shù)的發(fā)展,需要更高壓縮比,更符合真實(shí)體驗(yàn)感的壓縮技術(shù)。第二,它會(huì)帶來超低延遲技術(shù),包括 wifi 低延時(shí)內(nèi)網(wǎng)技術(shù),低延遲編碼,同時(shí)也會(huì)帶動(dòng)邊緣計(jì)算的崛起。第三,音視頻交互技術(shù)。第四,腦機(jī)接口技術(shù),直接透過視網(wǎng)膜把顯示數(shù)據(jù)傳遞給人腦,這些都是元宇宙 “登月” 過程中必然會(huì)帶來的變革。

我先講全真視覺體驗(yàn)的產(chǎn)生原理,左圖是人眼的結(jié)構(gòu),右圖是人腦處理數(shù)據(jù)的過程,人眼對(duì)光線的感應(yīng)是通過神經(jīng)傳到大腦,再用大腦進(jìn)行分析,從而合成我們看到的畫面。

首先我們要理解人眼的分辨率到底有多少,這是個(gè)非常關(guān)鍵的指標(biāo)。使用蘋果手機(jī)時(shí)有一個(gè)關(guān)鍵詞 “PPI“,什么是 PPI 呢?就是每英寸對(duì)角線上能容納多少像素,蘋果對(duì)視網(wǎng)膜屏的定義是分辨率超過人眼識(shí)別極限的高分辨率屏幕,也就是要大于 300PPI 的像素密度。但在 VR 里常常引入一個(gè)概念 “PPD”,它是人眼的每一角度(degree)能容納多少像素。給大家做個(gè)類比,人在 40cm 左右的距離看到一個(gè)非常清晰的畫面(640 像素),換算過來就是 64PPD,那這符合人眼體驗(yàn)嗎?其實(shí)不符合,64PPD 是遠(yuǎn)遠(yuǎn)不夠的。實(shí)驗(yàn)證明 PPD 要到 150-160 才能匹配人眼密度。

科學(xué)實(shí)驗(yàn)的結(jié)果說明人眼理論的分辨率是 2.4w*2.4w 相當(dāng)于是 5.76 億的像素。這只是理論值,人眼單眼的視覺范圍大概在 156 度,也就是 2.4w 除以 156,約等于 150 左右,也就是說 150PPD 才符合人眼視覺體驗(yàn)。

但現(xiàn)實(shí)真的如此嗎?并不是,人眼的分辨率遠(yuǎn)沒有 5.76 億那么高。為什么呢?因?yàn)槿搜墼诟泄贂r(shí)并不是全高清感官,它有一個(gè)聚焦的位置,只有這個(gè)聚焦的位置才是非常清晰的,周圍是模糊的。但為什么人能看非常清晰的畫面,因?yàn)槿说难矍驎?huì)動(dòng),會(huì)轉(zhuǎn)一圈來獲得多個(gè)清晰的畫面,在大腦里合成并還原出物體實(shí)際的樣子。

上圖看到的是窄域和寬域,窄域是人眼最高清晰看到的畫面。左圖這個(gè)角度是窄域,剩下的是寬域。兩眼同時(shí)看到的畫面結(jié)合起來能看到一個(gè)完整的視覺效果。右邊的圖,人用一只眼看時(shí)是一塊清晰周圍全模糊,而用兩只眼睛同時(shí)看就能獲得一個(gè)完整的清晰畫面。兩眼重合視域可達(dá) 124°,比較清晰。但對(duì)于單眼來說,窄域是 56°-60° 之間,最大單眼視角是 156°,這些都是實(shí)驗(yàn)得出數(shù)據(jù)。

這是來自尼康的一份實(shí)驗(yàn)資料。它請(qǐng)了很多人來做窄域像素測試,這些人的眼睛都有不同程度的近視。表格是左眼與右眼測出來的情況,發(fā)現(xiàn)人眼實(shí)際像素的差距很大。窄域等效像素在 7 百萬 - 7 千萬之間,如果算平均值,人眼看到最清晰的畫面分辨率在 5 千萬左右像素,也就是最好分辨率在 7000*7000 左右。如果我們用人眼視覺得到一個(gè)值和計(jì)算機(jī)的分辨率來進(jìn)行參考,我們發(fā)現(xiàn) 7000×7000 跟今天的 8K 是最接近的。

如果說整個(gè)硬件在窄域要給人以一種身臨其境的感覺,需要支持的單眼分辨率要做到 8k 這樣的級(jí)別。那么我們可以類比市面上今天銷量最大的一款 VR 設(shè)備,Oculus Quest2,基本上它距離單眼 8k 還有很遠(yuǎn)的距離,但如果要在 VR 設(shè)備中造出一個(gè)單眼 8k + 的視網(wǎng)膜屏幕,就要把它的屏幕 PPI 密度做得更高才行,這本身是一個(gè)極大的硬件挑戰(zhàn)。

下面我來說說刷新率。刷新率是一個(gè)很有意思的話題,早在 20 世紀(jì)以前剛發(fā)明電影的時(shí)候,已經(jīng)證明人眼的刷新率是 24 幀,這也是直到今天電影行業(yè)基本普遍采用的刷新率。

那為什么電腦顯示器 30 幀以下,我們的眼睛就會(huì)覺得很不適應(yīng),60 幀才能達(dá)到一個(gè)人眼的基本舒適感覺,跟 24 幀是不是相悖?當(dāng)然不是,因?yàn)殡娪八玫膸凶瞿:龓?,如果你把電影畫面一幀一幀地慢放,?huì)發(fā)現(xiàn)中間有大量的模糊幀存在,而人眼在面對(duì)大量模糊幀的時(shí)候能夠還原出清晰且連貫的畫面。但前提是我們要清晰的知道我們的下一幀是什么,我們才能使用模糊幀。

實(shí)際上我們?cè)谕嬗螒驎r(shí),因?yàn)椴恢浪乱粠嬅鎽?yīng)該是怎樣的,所以只能渲染出清晰幀,用大量的清晰幀才能給人腦一種無縫的連貫感。不過,這里我也查過大量資料,也請(qǐng)教過一些專門研究人腦生理學(xué)的人,確實(shí)目前沒有實(shí)驗(yàn)?zāi)軌蜃C明,到底什么樣的清晰幀對(duì)人腦是合適的。根據(jù)電競游戲顯示器的經(jīng)驗(yàn)看,基本上 60 幀已經(jīng)滿足了,120 幀能滿足一些高速動(dòng)作的場景,240 幀是發(fā)燒級(jí)?,F(xiàn)在很多顯示器是 240 幀,都是為發(fā)燒級(jí)而生的。另外,電影業(yè)也不是一成不變,今天很多電影也在追求更高的分辨率,如 2019 年由李安導(dǎo)演的《雙子殺手》,就是首部 120 幀拍攝的動(dòng)作片。

從云游戲和云渲染的角度來看,它的本質(zhì)是音視頻串流,是要經(jīng)過編碼。從編碼原理看,是明確知道這一幀和上一幀之間的差異。想象一下,如果能很好地運(yùn)用好模糊幀理念,其實(shí)能適當(dāng)降低人腦對(duì)幀率的要求。但為了做好今天的邏輯分析,我后面的推演還是以 60 幀作為一個(gè)理想的數(shù)字,繼續(xù)往下推演,因?yàn)槲艺J(rèn)為 60 幀對(duì)于全真視覺體驗(yàn)已經(jīng)足夠了。

這是當(dāng)前 VR 顯示設(shè)備的分辨率和全真視覺體驗(yàn)分辨率的差距,圖中可以看出技術(shù)上的對(duì)比。最后一列如果要做到身臨其境的感覺,需要支持 7000 x 7000 的分辨率和接近 5000 萬的像素。對(duì)比目前的 VR 硬件可以看出,在元宇宙發(fā)展過程中,VR 視網(wǎng)膜屏幕技術(shù)還需要進(jìn)一步提升,才能符合窄域全真顯示體驗(yàn),還需要提升 5-10 倍像素密度。

要想達(dá)到全真視覺體驗(yàn),只做好窄域的顯示是不夠的,因?yàn)槿说难劬λ鼤?huì)游走轉(zhuǎn)動(dòng),所以在給人做顯示設(shè)備的時(shí)候,不能只是把窄域做好,還要考慮用寬域的角度去看。

在我看來眼動(dòng)追蹤技術(shù)一定會(huì)誕生。近幾年已經(jīng)有很多論文在研究眼動(dòng)技術(shù),有很多論文和專利講眼動(dòng)技術(shù)。隨著動(dòng)態(tài)的去捕捉人眼的關(guān)注點(diǎn),然后通過眼動(dòng)來給不同位置渲染不同分辨率的顯示。比如對(duì)人眼最關(guān)注的部分一定要有高清的分辨率,其它可以變模糊。根據(jù)眼動(dòng)動(dòng)態(tài)調(diào)節(jié)整個(gè)畫面,只有這樣做才能把碼流率控制到一個(gè)可控的地步。

碼流率到底是多少?這是我在國外找到的比較極限的評(píng)測值,用最新的兩個(gè)編碼技術(shù),一個(gè)是 H265,一個(gè)是 AV1,然后基于 24 幀的畫面給它進(jìn)行調(diào)參,調(diào)到不影響顯示效果的最低碼流率。在 8K+24 幀分辨率的情況下,結(jié)合其他參數(shù)的優(yōu)化,最低做到 40Mbps 左右的碼流率。但這畢竟還是 24 幀,如果處于 8K+60 幀的話,基本上能做到 60Mbps-150Mbps 左右碼流率。如果兩只眼睛的話,還要乘 2,大概要做到 120Mbps-300Mbps 左右的碼流率,這才能做到給人身臨其境的感覺。

從 3D 渲染的角度看,如果要做到 8K + 需要什么樣的渲染能力?目前,支持 8K 渲染顯示的主要是 Nvidia GeForce 3090 系列,但看 3090 的指標(biāo),其中有兩個(gè)指標(biāo)需要非常關(guān)注,分別是功率和重量,因?yàn)楣β蕸Q定了發(fā)熱量,重量決定了人戴在頭上的感覺。

除了需要做 3D 渲染以外,還有存儲(chǔ)也是非常關(guān)鍵的。那么,我列出了一些國際支持 4K 的 3A 大作,這里存儲(chǔ)的大小用了游戲素材的大小來說明。如果要做 8K 的話,它的材質(zhì)清晰度遠(yuǎn)遠(yuǎn)大于 4K,目前的大部分游戲還沒有做 8K 的優(yōu)化,假設(shè)我們未來的游戲要做到 8K,每個(gè)游戲的存儲(chǔ)量還要比這大很多,這就是未來我們做全真視覺體驗(yàn)中所要面對(duì)的場景。

這里我先說結(jié)論,元宇宙要給人完美的體驗(yàn),必須要流化。什么是流化呢?就是我們不能靠可穿戴設(shè)備的算力去直接渲染,因?yàn)椴豢赡茉谌说念^上帶一個(gè)有 1P 空調(diào)發(fā)熱量的東西,也不可能帶一個(gè)重 5 公斤的東西,說不定還有電磁輻射,所以必須把計(jì)算放在遠(yuǎn)端云上,通過 Streaming 的方式把它傳過來再解碼顯示。

VR 設(shè)備主要有 3 個(gè)眩暈的原因:1、VR 中看到的運(yùn)動(dòng)有遲延滯后的現(xiàn)象。2、硬件調(diào)試問題,如瞳距產(chǎn)生的景深等問題。3、 眼睛看到的畫面與重力感應(yīng)不一致。其中最難解決的問題,就是運(yùn)動(dòng)延遲滯后,這里有個(gè)關(guān)鍵指標(biāo):M2P 延遲(Motion-to-photons),也就是運(yùn)動(dòng)到光子的延遲。當(dāng)人快速移動(dòng)時(shí),看到的畫面是否能在極短的時(shí)間內(nèi)響應(yīng),如果這個(gè)響應(yīng)跟不上,人類大腦會(huì)有被欺騙的感覺。一些實(shí)驗(yàn)調(diào)研得出結(jié)論:在低運(yùn)動(dòng)狀態(tài)下,M2P 延遲不能高于 20ms;在高運(yùn)動(dòng)狀態(tài)下,M2P 延遲不能高于 7ms,否則人腦就會(huì)產(chǎn)生眩暈的感覺。

如果我們既要串流,又要把延遲做低,只能把整個(gè)串流鏈路進(jìn)行裁剪,包含了采集,編碼,傳輸,解碼多個(gè)環(huán)節(jié),每個(gè)環(huán)節(jié)都需要優(yōu)化時(shí)延。其中采集,編碼,解碼都能靠硬件技術(shù)來優(yōu)化時(shí)延,但真正最難的在網(wǎng)絡(luò)上,特別是進(jìn)入互聯(lián)網(wǎng)以后,成為了解決延遲的關(guān)鍵。這不是靠算法或者硬件單點(diǎn)解決,而是要依靠網(wǎng)絡(luò)服務(wù)的基礎(chǔ)建設(shè)才能解決。

說到網(wǎng)絡(luò)延遲,先來看看本地網(wǎng)絡(luò)延遲。如果在家里搭過串流的人,都知道 Wi-Fi4 不太靠譜,需要升級(jí)到 Wi-Fi6,它有一些技術(shù),如多路復(fù)用 OFDMA,MU-MIMO,容錯(cuò)的機(jī)制等,使得它在內(nèi)網(wǎng)傳輸時(shí),不管在速度、大小、延遲都比 Wi-Fi4 好很多。我做過一個(gè)實(shí)測,Wi-Fi4 不僅 120mb 的碼流率達(dá)不到,就連 60Mbps 碼流率也非常吃力;而 WiFi6 在沒有隔墻的環(huán)境下,跑到 800/900Mbps 基本沒問題。這意味著我們必須對(duì) Wi-Fi4 進(jìn)行升級(jí),不然本地網(wǎng)絡(luò)會(huì)成為瓶頸,但要注意,Wi-Fi6 也不是完美但,比如它的穿墻能力很差,哪怕中間只隔著一個(gè)木墻,傳輸速度都會(huì)跌到 100Mbps。部署 Wifi6 要覆蓋大房間,建議使用 Mesh 組網(wǎng)的方式。想要克服這一缺點(diǎn),恐怕要等新一代的 Wifi 技術(shù)來解決了。

從串流的角度看,未來主流的串流模式到底是本地串流還是云端串流呢?本地串流為主是把強(qiáng)的服務(wù)節(jié)點(diǎn)放在了本地,云端串流為主就是把強(qiáng)的計(jì)算節(jié)點(diǎn)放在云端。這個(gè)問題我自己嘗試過去解決,要搭好一個(gè)本地串流很復(fù)雜,它需要有計(jì)算機(jī)背景,很熟悉網(wǎng)絡(luò)和 IT 知識(shí)的 IT 工程師來搭建,對(duì)普通人來說門檻很常高。本地串流就好比用戶在內(nèi)網(wǎng)部署 NAS,云端串流就好比用戶購買 iCloud 服務(wù),只要花錢就可以享受。NAS 用戶一直很少,只有計(jì)算機(jī)極客才使用 NAS 服務(wù),普通大眾最終還是會(huì)選擇 iCloud,我認(rèn)為云端串流一定是未來的趨勢(shì)。

下一步如果要做云端串流,一旦將時(shí)延問題放到了公網(wǎng),今天的基礎(chǔ)設(shè)施能不能做到呢?我經(jīng)過研究,發(fā)現(xiàn)需要在中間構(gòu)建一個(gè)邊緣層,才能做到,這一點(diǎn)非常關(guān)鍵。

我們對(duì)數(shù)據(jù)做了實(shí)驗(yàn)分析,得出了上面的圖表。圖示橫坐標(biāo)是距離,縱坐標(biāo)是時(shí)延。里面分析了端到端時(shí)延和距離是否強(qiáng)相關(guān)?結(jié)論是距離和時(shí)延是強(qiáng)相關(guān)的,30 公里是分界線,在 30 公里以內(nèi),基本上延時(shí)能做到 10ms 以內(nèi)。

這張圖是邊緣計(jì)算的距離和時(shí)延分析圖,從運(yùn)營商角度看,在不同的算力節(jié)點(diǎn)位置分別對(duì)應(yīng)的距離和延遲情況。20 公里以內(nèi)的城域網(wǎng)節(jié)點(diǎn),能把時(shí)延做到 5ms 以下。要做到 M2P 時(shí)延的 20ms 以下,再考慮采集,編碼,解碼的時(shí)延;只有將云計(jì)算的算力從千里之外放到我們的社區(qū)周邊,才可能實(shí)現(xiàn)超低延時(shí)。

如果要覆蓋全國城域網(wǎng),全國至少要有多少個(gè)節(jié)點(diǎn)才合適?是不是一定要有幾百萬個(gè)呢?從全國的情況看,其實(shí)是不用的。因?yàn)槌怯蚓W(wǎng)最少只需要到縣和區(qū)的級(jí)別。全國有將近 3000 個(gè)縣和縣級(jí)市,考慮三大運(yùn)營商再乘以三,大概 9000 個(gè)。如果在人口密集的地方多部署一些節(jié)點(diǎn),差不多覆蓋 10000 + 個(gè)城域網(wǎng)節(jié)點(diǎn),就能做到大部分區(qū)域覆蓋。

2、PPIO 邊緣云計(jì)算服務(wù)

目前,PPIO 邊緣云解決方案,已經(jīng)在全國 30 多個(gè)省,超過 1000 多個(gè)縣市及區(qū)域,幫助客戶在算力上,實(shí)現(xiàn)從中心云向邊緣側(cè)的下沉。

我們的客戶在使用服務(wù)并加入邊緣節(jié)點(diǎn)后,數(shù)據(jù)傳輸?shù)穆窂剑粌H可以從終端到中心云下發(fā),還可以從端到邊緣層先進(jìn)行預(yù)處理,然后再選擇是否需要回到中心云。

通過云邊協(xié)同,比如視頻直播里的彈幕、編解碼、特效渲染等需求,都可以放到邊端來處理,速度更快,成本更低。

我們致力于將 PPIO 邊緣云打造成未來元宇宙的基礎(chǔ)設(shè)施,深化在超低延時(shí)直播、云游戲、云渲染、車聯(lián)網(wǎng)、空間數(shù)字化等對(duì)超低延時(shí)有改善需求的場景上的探索。

這里我對(duì)整個(gè)行業(yè)的未來做了一個(gè)推演,得出一個(gè)神奇公式,音視頻服務(wù)用量等于使用服務(wù)的在線用戶數(shù)乘以算力用量。簡單對(duì)公式進(jìn)行拆解,使用服務(wù)的在線用戶數(shù)等于設(shè)備數(shù)乘以聯(lián)網(wǎng)率乘以平均使用滲透率,算力用量把它拆解為兩類,一類是碼流率,一類是渲染算力。

碼流率主要消耗的是網(wǎng)絡(luò)帶寬資源,而渲染算力消耗的是計(jì)算資源,即 CPU 和 GPU。我舉個(gè)例子讓大家有體感,今天視頻 CDN 全國用量為什么有 500T 呢?因?yàn)樗?70% 的量在移動(dòng)設(shè)備,而全國有接近 8 億的移動(dòng)用戶,每人每天 7~8 個(gè)小時(shí)使用時(shí)長,而 30% 的時(shí)間用于視頻。

隨著元宇宙的發(fā)展,人們想要有一種身臨其境的感覺,需要用雙 8K + 的分辨率、120~300Mbos 的碼流率,比今天的 5M、10M 手機(jī)的碼流率提高了幾十倍。CDN 不需要強(qiáng)大的算力消耗,但是元宇宙渲染串流,它的 GPU 渲染計(jì)算消耗巨大。假設(shè)十年之后,我們的音視頻體驗(yàn)從手機(jī)過渡到元宇宙體驗(yàn),碼流率至少有幾十倍的提升,而渲染能力基本上強(qiáng)于我們現(xiàn)在最強(qiáng)游戲 GPU 算力。可以推測出,到那時(shí)音視頻帶來的算力總用量將是今天音視頻算力總用量的幾百倍。

最后,元宇宙就像信息技術(shù)中的 “登月工程”,它雖然遙遠(yuǎn),可能十年,可能二十年,我們才能到達(dá)這一天,但是在這個(gè)過程中一定會(huì)帶來各種各樣技術(shù)的革新,包括我們 PPIO 所做的邊緣計(jì)算,也包括編解碼、顯示硬件、云游戲、實(shí)時(shí)渲染、AR/VR、無人機(jī)器人操作等等。我相信元宇宙一定能成,即使它不成,它所帶來的技術(shù)變革也一定會(huì)深深地改變?nèi)祟惖纳睢?/p>

這就是我今天演講的所有內(nèi)容,謝謝大家!

    本文為澎湃號(hào)作者或機(jī)構(gòu)在澎湃新聞上傳并發(fā)布,僅代表該作者或機(jī)構(gòu)觀點(diǎn),不代表澎湃新聞的觀點(diǎn)或立場,澎湃新聞僅提供信息發(fā)布平臺(tái)。申請(qǐng)澎湃號(hào)請(qǐng)用電腦訪問http://renzheng.thepaper.cn。

            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號(hào)

            滬公網(wǎng)安備31010602000299號(hào)

            互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006

            增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116

            ? 2014-2026 上海東方報(bào)業(yè)有限公司