长腿少妇视频小说,AV大黑逼,亚洲日本精品A在线观看,国产又粗又猛又黄又湿视频

您當(dāng)前的位置 :環(huán)球傳媒網(wǎng)>新視野 > 正文
資訊:黃仁勛小扎世紀(jì)對談:蘋果贏了上一代,開源AI將贏下新時代
2024-07-30 14:52:12 來源:鈦媒體 編輯:

還記得今年3月Meta CEO扎克伯格(Mark Zuckerberg)曬出的這張與英偉達CEO黃仁勛的合照嗎?當(dāng)時小扎稱,黃仁勛是“科技界的Taylor Swift”。

這被認為是兩個億萬富翁的世紀(jì)會面。


(資料圖)

而就在剛剛,北京時間7月30日凌晨,黃仁勛與扎克伯格兩人再度現(xiàn)身計算機圖形學(xué)頂會SIGGRAPH 2024上,不僅迎來 AI 行業(yè)的世紀(jì)對談,探討 AI 和虛擬世界的基礎(chǔ)研究與未來。而且最后,小扎送黃仁勛一件定制皮衣,黃仁勛用自己標(biāo)志性的“全新”皮衣與扎克伯格交換,留下了精彩一刻。

扎克伯格在對談中表示,從互聯(lián)網(wǎng)到移動互聯(lián)網(wǎng)之后,F(xiàn)acebook這類軟件在蘋果iOS系統(tǒng)平臺上受到了極大的限制,而如今,以Llama為首的開源AI模型將成為打敗蘋果封閉生態(tài)、微軟PC平臺的下一個新的至寶。“我非常樂觀地認為,在下一代比賽中,開源 AI 將會為Meta贏得勝利。”

“我未來10年或15年的事情之一,就是我只想確保Meta能夠建立基礎(chǔ)技術(shù),并將在此基礎(chǔ)上建立社交體驗,因為我已經(jīng)嘗試了太多的東西。

如果你剛剛被告知,在某種程度上,你需要通過平臺來構(gòu)建它,我只是想,不,去他媽的下一代(fuck that for the next generation),就像我們要一直往下構(gòu)建,并確保在那里。”扎克伯格再度炮轟蘋果封閉生態(tài)對于Meta公司的打擊。

黃仁勛則強調(diào),AI 正在變革一切。而“我們(英偉達十年前)改變了公司的一切,從處理器到系統(tǒng),再到軟件堆棧,所有的算法和視頻基礎(chǔ)研究都轉(zhuǎn)向深度學(xué)習(xí)。”

老黃小扎對談:開源AI正變革互聯(lián)網(wǎng)時代

“This is SIGGRAPH, these 90 % PhDs.”一上臺,黃仁勛就調(diào)侃了小扎,稱這個會議上的人90%都是博士,暗指小扎輟學(xué)創(chuàng)立Facebook的事情。

相比于大學(xué)本科期間就打造出Facebook并退學(xué)創(chuàng)業(yè)的扎克伯格,黃仁勛是在30歲才成為英偉達的聯(lián)合創(chuàng)始人。于是他提到:“我要是知道得花這么長時間才能成功的話……”

“你打從一開始就不會做這些了?”扎克伯格問道。

“不,我會像你一樣從大學(xué)輟學(xué)然后早點開始。” 黃仁勛表示。

實際上,英偉達和Meta之間的關(guān)系頗有淵源。當(dāng)全球最強開源模型LLaMA一代推出之時,Meta采用英偉達A100 GPU卡進行訓(xùn)練,如今最新的Llama 3則是英偉達H100進行訓(xùn)練推理形成的。

早前扎克伯格承諾,到今年年底,Meta將擁有35萬塊英偉達H100 GPU,算力總和將接近于60萬塊H100所能提供的算力,預(yù)計投入成本高達70億美金以上。

扎克伯格在對話當(dāng)中表示,Meta有一套算力集群訓(xùn)練技術(shù)方案。如今,多模態(tài)模型對于算力要求越來越高,而 AI 已經(jīng)深入到每家公司,在這其中構(gòu)建GPU基礎(chǔ)設(shè)施和運行大型推薦系統(tǒng)變得異常重要。

談到開源 AI,扎克伯格有些激動的表示,開源 AI 模型技術(shù)將成為 AI 時代下打敗閉源模型的重要動力。

“所以在這方面(Meta)有很多歷史。隨著時間的推移,我們做了很多開源工作。坦率地說,我認為部分原因是我們在其他一些科技公司之后開始建設(shè)分布式計算基礎(chǔ)設(shè)施和數(shù)據(jù)中心。正因為如此,當(dāng)我們建造這些東西的時候,它并不是一個競爭優(yōu)勢。所以我們想,好吧,我們最好把它打開,然后我們將受益于圍繞它(開放)的生態(tài)系統(tǒng)。所以我們有很多這樣的項目。我認為,最大的一個可能是開放計算,我們采用了服務(wù)器設(shè)計和網(wǎng)絡(luò)設(shè)計。最終,數(shù)據(jù)中心設(shè)計并發(fā)布了所有這些內(nèi)容。通過讓它成為某種行業(yè)標(biāo)準(zhǔn),所有的供應(yīng)鏈基本上都圍繞它組織起來,這對每個人都有省錢的好處。”扎克伯格表示。

黃仁勛也同意開源 AI 的重要性,也支持Meta公司的愿景。他表示,模型開源之后,每個人都可以有個AI ,每個企業(yè)都可以有一個AI,每個工程師和每個軟件開發(fā)人員都有一個AI。“我相信你也相信每個人和每個公司都應(yīng)該能夠制造自己的AI,所以你(Meta模型)實際上是開源的。”

“所以這是一項非常棒的體驗。當(dāng)Llama出現(xiàn)的時候,我們有點積極地傾向于為 AI 模型做這件事。具體來說,我想我有幾種方式來看待這個問題。我的一個想法是,在過去的20年里,在公司里建造東西真的很有趣。但最困難的一件事是,我們必須通過競爭對手的移動平臺(蘋果)發(fā)布我們的應(yīng)用程序。所以一方面,移動平臺對這個行業(yè)來說是巨大的恩惠,這是非常棒的。

但另一方面,通過你的競爭對手來交付你的產(chǎn)品是具有挑戰(zhàn)性的。在我成長的那個時代,F(xiàn)acebook第一個版本是在網(wǎng)絡(luò)上,而且是開放的。然后作為向移動設(shè)備的過渡,有利的一面是,現(xiàn)在每個人的口袋里都有一臺‘電腦’。所以那很好。但缺點是,我們能做的事情受到了更多的限制。當(dāng)你看這幾代計算時,有一種很大的限制和偏見,每個人都只看著移動設(shè)備,認為因為封閉的生態(tài)系統(tǒng),因為蘋果基本上贏了,并制定了條款。

從技術(shù)上講,我知道市面上有更多的安卓手機,但蘋果基本上擁有整個市場和所有的利潤?;旧?,安卓在發(fā)展方面有點像蘋果。所以我認為蘋果很明顯贏得了這一代人。但并不總是這樣?;蛘呒词鼓慊氐揭淮艘郧埃O果也在做他們那種封閉的事情。

但是微軟,顯然不像這個完全開放的公司,但與蘋果相比,Windows運行在所有不同的原始設(shè)備制造商和不同的軟件,不同的硬件上。這是一個更加開放的生態(tài)系統(tǒng)和窗口。Windows是領(lǐng)先的生態(tài)系統(tǒng)。它基本上是那種PC時代的東西,開放的生態(tài)系統(tǒng)之一。我有點希望,在下一代計算中,我們將回到開放生態(tài)系統(tǒng)獲勝并處于領(lǐng)先地位的領(lǐng)域。然后,總會有一個封閉的和一個開放的。我認為兩者都有理由去做,兩者都有好處。我不是這方面的狂熱者,并不是我們發(fā)布的所有東西都是開放的。

但我認為,總的來說,對于整個行業(yè)正在構(gòu)建的計算平臺來說,這是很有價值的。如果軟件特別開放,這真的塑造了我的哲學(xué),無論是與Llama AI,還是我們在AR和VR方面所做的工作,我們基本上是在做基于開源技術(shù)的系統(tǒng)架構(gòu),比如在AR上構(gòu)建系統(tǒng)。因此,從某種意義上說,Android或Windows基本上是這樣的,但我們將能夠與許多不同的硬件公司合作,制造各種不同的設(shè)備。我們基本上只是想把生態(tài)系統(tǒng)恢復(fù)到開放的水平。”扎克伯格這一段言論,直接炮轟蘋果封閉系統(tǒng)對于Meta產(chǎn)品和收入的影響。

隨后,扎克伯格就開啟了“fuck”之旅,他說“讓我談?wù)摲忾]的平臺,我就會生氣”。

黃仁勛隨后繼續(xù)稱贊Meta的開源愿景,認為這種方式能讓所有人使用 AI 技術(shù)。

隨后談及虛擬現(xiàn)實的發(fā)展,扎克伯格指出,利用現(xiàn)有非常高質(zhì)量的 AI 技術(shù),AR技術(shù)能夠在全息AR出現(xiàn)之前以非??斓乃俣茸兊酶谩?ldquo;幸運的是,我們處于有利地位,因為我們正最終得到只是一系列不同價位、不同技術(shù)水平的眼鏡產(chǎn)品。所以我認為,基于我們現(xiàn)在看到的雷朋Meadows,我會猜測 AI 眼鏡在300美元的價位上將會是一個量級非常大的產(chǎn)品,數(shù)千萬或數(shù)億人最終將會擁有(它)。”

“我們開始建立一個GPU芯片?,F(xiàn)在,當(dāng)您部署GPU時,您仍然將其稱為H100。所以你們知道,當(dāng)扎克伯格稱它建立擁有60萬H100的數(shù)據(jù)中心的時候,我認為出現(xiàn)了好‘顧客’。但這件事太不可思議了我有一個巨大的系統(tǒng),非常難以協(xié)調(diào)、難以運行。你說你進入GPU的旅程比大多數(shù)人都晚,但你的規(guī)模比任何人都大。我祝賀你所做的一切真是難以置信,這真是個時尚偶像。”黃仁勛在演講結(jié)尾表示。

NVIDIA NIM時代已來

值得注意的是,伴隨這次訪談,本次SIGGRAPH 2024上,英偉達公布20多份研究論文和產(chǎn)品。其中,黃仁勛重點展示了一項英偉達的“第二曲線”業(yè)務(wù)——推理微服務(wù)NVIDIA NIM。

7月29日,英偉達推出了一套全新的NIM微服務(wù),專門針對不同工作流提供定制服務(wù),包括OpenUSD、3D建模、物理學(xué)、材質(zhì)、機器人、工業(yè)數(shù)字孿生和物理AI,旨在賦能開發(fā)人員,特別是在DGX Cloud上集成Hugging Face推理即服務(wù)。

同時,Shutterstock還推出了一項生成式3D服務(wù)。而在AI和圖形領(lǐng)域,英偉達發(fā)布了全新的OpenUSD NIM微服務(wù)和參考工作流,專為生成式物理AI應(yīng)用而設(shè)計。這包括一項通過面向機器人仿真的全新NIM微服務(wù)來加速人形機器人開發(fā)計劃。

實際上,所謂英偉達Nvidia inference microservices(NIMs)是通過經(jīng)優(yōu)化的容器的形式提供模型,以部署在云、數(shù)據(jù)中心或工作站上,是NVIDIA AI Enterprise業(yè)務(wù)的一部分。借助 NVIDIA NIM,全球超過2800萬名開發(fā)者能夠輕松地為Copilots、聊天機器人等構(gòu)建生成式 AI 應(yīng)用,所需時間從數(shù)周縮短至幾分鐘。

簡單來說,你可以理解為NIM是一種軟件模型服務(wù)即平臺,與無問芯穹推理模型服務(wù)、Hugging Face有點類似。

事實上,隨著2022年底OpenAI推出ChatGPT聊天機器人產(chǎn)品,GPT大模型技術(shù)在幾個月內(nèi)積累了超過 1 億用戶,幾乎推動了各行各業(yè)的開發(fā)活動激增。

而到了2023 年,開發(fā)者開始使用 Meta、Mistral、Stability等公司的 API 和開源社區(qū)模型創(chuàng)建模型或技術(shù)服務(wù)。

如今,2024年起,企業(yè)組織正將注意力轉(zhuǎn)向大規(guī)模生產(chǎn)部署,其中包括將 AI 模型連接到現(xiàn)有企業(yè)基礎(chǔ)設(shè)施、優(yōu)化系統(tǒng)延遲和吞吐量、日志記錄、監(jiān)控和安全性等。但是,這種生產(chǎn)路徑既復(fù)雜又耗時,需要專門的技能、平臺和流程,尤其是大規(guī)模部署。

就在此時,NVIDIA NIM應(yīng)運而生。

今年3月,英偉達首次公布該產(chǎn)品,并在 今年6月Computex電腦展上正式宣布,包括Cadence、Cloudera、Cohesity、DataStax、NetApp、Scale AI 和新思科技等近200家技術(shù)合作伙伴正在將 NIM 集成到他們的平臺中,以加快特定領(lǐng)域應(yīng)用的生成式 AI 部署,例如Copilot、代碼助手和數(shù)字人虛擬形象等。另外,從 Meta Llama 3 開始,在 Hugging Face 上現(xiàn)已開始提供 NIM。

黃仁勛在今年6月表示:“每個企業(yè)都希望在其運營中融入生成式 AI,但并非每個企業(yè)都擁有專門的 AI 研究團隊。NVIDIA NIM 可被集成到任意平臺中,任何地方的開發(fā)者都可以訪問,并且可以在任意環(huán)境中運行——它正在助力科技行業(yè)將生成式 AI 普及到每一個企業(yè)組織。”

具體來說,NVIDIA NIM主要有五個優(yōu)勢:

隨時隨地部署:NIM 專為可移植性和可控性而構(gòu)建,支持跨各種基礎(chǔ)設(shè)施 (從本地工作站到云再到本地數(shù)據(jù)中心) 進行模型部署。其中包括 NVIDIA DGX、 NVIDIA DGX 云、 NVIDIA 認證系統(tǒng)、 NVIDIA RTX 工作站和 PC。預(yù)構(gòu)建的容器和 Helm Chart 打包了優(yōu)化模型,并在不同的 NVIDIA 硬件平臺、云服務(wù)提供商和 Kubernetes 發(fā)行版中進行了嚴(yán)格驗證和基準(zhǔn)測試。這支持所有 NVIDIA 驅(qū)動的環(huán)境,并確保組織可以在任何地方部署其生成式 AI 應(yīng)用,同時保持對其應(yīng)用及其處理的數(shù)據(jù)的全面控制。使用行業(yè)標(biāo)準(zhǔn) API 進行開發(fā):開發(fā)者可以通過符合每個領(lǐng)域行業(yè)標(biāo)準(zhǔn)的 API 訪問 AI 模型,從而簡化 AI 應(yīng)用的開發(fā)。這些 API 與生態(tài)系統(tǒng)中的標(biāo)準(zhǔn)部署流程兼容,使開發(fā)者能夠快速更新其 AI 應(yīng)用 (通常只需 3 行代碼)。這種無縫集成和易用性有助于在企業(yè)環(huán)境中快速部署和擴展 AI 解決方案。利用特定領(lǐng)域的模型:NIM 還通過幾個關(guān)鍵功能滿足了對特定領(lǐng)域解決方案和優(yōu)化性能的需求。它包含特定于領(lǐng)域的 NVIDIA CUDA 庫,以及為語言、語音、視頻處理、醫(yī)療健康等各個領(lǐng)域量身定制的專用代碼。這種方法可確保應(yīng)用程序準(zhǔn)確無誤并與其特定用例相關(guān)。在優(yōu)化的推理引擎上運行:NIM 針對每個模型和硬件設(shè)置利用經(jīng)過優(yōu)化的推理引擎,在加速基礎(chǔ)設(shè)施上提供盡可能好的延遲和吞吐量。這降低了在擴展推理工作負載時運行推理工作負載的成本,并改善了最終用戶體驗。除了支持優(yōu)化的社區(qū)模型外,開發(fā)者還可以通過使用從未離開數(shù)據(jù)中心邊界的專有數(shù)據(jù)源對模型進行對齊和微調(diào),從而實現(xiàn)更高的準(zhǔn)確性和性能。支持企業(yè)級 AI:作為 NVIDIA AI Enterprise 的一部分,NIM 采用企業(yè)級基礎(chǔ)容器構(gòu)建,通過功能分支、嚴(yán)格的驗證、通過服務(wù)級別協(xié)議提供的企業(yè)級支持以及針對 CVE 的定期安全更新,為企業(yè) AI 軟件提供堅實的基礎(chǔ)。全面的支持結(jié)構(gòu)和優(yōu)化功能突出了 NIM 作為在生產(chǎn)環(huán)境中部署高效、可擴展和定制的 AI 應(yīng)用的關(guān)鍵工具的作用。

與此同時,開發(fā)者可以使用 NVIDIA 托管的云 API 測試新的生成式 AI 模型,或者通過下載 NIM 來自行托管模型,并在主要云提供商或本地使用 Kubernetes 快速部署,以減少開發(fā)時間、復(fù)雜性和成本。而且,NIM 微服務(wù)通過打包算法、系統(tǒng)和運行時優(yōu)化并添加行業(yè)標(biāo)準(zhǔn) API 來簡化 AI 模型部署流程。

因此,借助 NIM,企業(yè)可以優(yōu)化其 AI 基礎(chǔ)架構(gòu),以更大限度地提高效率和成本效益,而無需擔(dān)心 AI 模型開發(fā)的復(fù)雜性和容器化。在加速 AI 基礎(chǔ)架構(gòu)的基礎(chǔ)上,NIM 有助于提高性能和可擴展性,同時降低硬件和運營成本。

另外,基于NIM,英偉達還提供跨不同領(lǐng)域定制模型服務(wù)。比如,NVIDIA NeMo使用專有數(shù)據(jù)為大模型、語音 AI 和多模態(tài)模型提供微調(diào)功能;NVIDIA BioNeMo通過生成生物學(xué)化學(xué)和分子預(yù)測模型集合加速藥物研發(fā);NVIDIA Picasso通過Edify模型實現(xiàn)更快的創(chuàng)意工作流程。這些模型在視覺內(nèi)容提供商的許可庫中進行訓(xùn)練,從而能夠部署自定義的生成式 AI 模型,以創(chuàng)建視覺內(nèi)容。

目前,開發(fā)者現(xiàn)在可以從 Hugging Face AI 平臺上,訪問 Meta Llama 3 模型的 NVIDIA NIM 微服務(wù)。通過基于 NVIDIA GPU 的 Hugging Face 推理端點,只需點擊幾下,開發(fā)者就能在其選擇的云平臺上輕松地訪問和運行 Llama 3 NIM。

具體到案例中,英偉達透露,作為全球最大的電子制造商,鴻海集團(Foxconn)正在使用 NIM 開發(fā)針對特定領(lǐng)域的大模型,并將這些模型嵌入到其 AI 工廠的各種內(nèi)部系統(tǒng)和流程中,用于智能制造、智慧城市和智能電動汽車;而西門子正在將其運營技術(shù)與 NIM 微服務(wù)整合,用于車間 AI 工作負載,此外西門子還利用NIM為Machine Operators 構(gòu)建了一個本地部署版本的 Industrial Copilot。

另外,英偉達稱,數(shù)十家醫(yī)療公司正在一系列應(yīng)用中部署 NIM,以便在手術(shù)規(guī)劃、數(shù)字助手、藥物研發(fā)和臨床試驗優(yōu)化等一系列應(yīng)用中為生成式 AI 推理提供動力。而且,埃森哲、德勤、Infosys、Latentview、Quantiphi、SoftServe、塔塔咨詢服務(wù)(TCS)和威普羅(Wipro)已經(jīng)建立了 NIM 能力,以幫助全球企業(yè)快速開發(fā)和部署生產(chǎn)型 AI 策略技術(shù)。

黃仁勛曾表示,未來,每臺設(shè)備都將運行 AI 軟件。因此,各個國家必須要做自己的主權(quán) AI,而當(dāng)前,企業(yè)以及制定主權(quán) AI 戰(zhàn)略的國家正希望創(chuàng)建具有特定領(lǐng)域知識的自定義大語言模型,以便生成式 AI 應(yīng)用能夠反映其獨特的業(yè)務(wù)或文化。因此,這些新服務(wù)的推出恰逢其時。

黃仁勛強調(diào),英偉達用“加速計算”技術(shù)重新發(fā)明了計算機。在過去的8年里,英偉達提高了每個GPU芯片性能,AI 算力性能提高了1000倍。

“現(xiàn)在,你可以擁有一臺搭載GPU顯卡、速度快100倍、能效高20倍、成本低20倍的計算機,能夠解決復(fù)雜問題以及 AI 技術(shù)。”黃仁勛稱,“事實上,我創(chuàng)造了‘加速計算’這個詞。”

黃仁勛解釋說,機器人技術(shù)需要三臺計算機:一臺用于訓(xùn)練AI,一臺用于在精確的物理模擬環(huán)境中測試AI,另一臺則安裝在機器人內(nèi)部。

“幾乎每個行業(yè)都將受到這項技術(shù)的影響,無論是科學(xué)計算以更少的能源更好地預(yù)測天氣,還是與創(chuàng)作者合作生成圖像,或為工業(yè)可視化創(chuàng)建虛以場景。生成式AI還將徹底改變機器人自動駕駛汽車領(lǐng)域。”黃仁勛表示。

黃仁勛強調(diào),未來,客戶服務(wù)這一職業(yè)仍將由人類主導(dǎo),但會有AI參與其中。所有這些創(chuàng)新技術(shù),就像任何新工具一樣,都有望增強人類的生產(chǎn)力和創(chuàng)造力。“想象一下,有了這些工具,你將能夠講述哪些新故事。”

關(guān)鍵詞: 黃仁勛 小扎 世紀(jì)對談 蘋果 AI

分享到:
版權(quán)和免責(zé)申明

凡注有"環(huán)球傳媒網(wǎng)"或電頭為"環(huán)球傳媒網(wǎng)"的稿件,均為環(huán)球傳媒網(wǎng)獨家版權(quán)所有,未經(jīng)許可不得轉(zhuǎn)載或鏡像;授權(quán)轉(zhuǎn)載必須注明來源為"環(huán)球傳媒網(wǎng)",并保留"環(huán)球傳媒網(wǎng)"的電頭。

Copyright ? 1999-2017 cqtimes.cn All Rights Reserved 環(huán)球傳媒網(wǎng)-重新發(fā)現(xiàn)生活版權(quán)所有 聯(lián)系郵箱:8553 591@qq.com