长腿少妇视频小说,AV大黑逼,亚洲日本精品A在线观看,国产又粗又猛又黄又湿视频

您當前的位置 :環(huán)球傳媒網(wǎng)>體育 > 正文
熱文:黃仁勛小扎世紀對談:蘋果贏了上一代,開源AI將贏下新時代
2024-07-30 14:45:27 來源:鈦媒體 編輯:

還記得今年3月Meta CEO扎克伯格(Mark Zuckerberg)曬出的這張與英偉達CEO黃仁勛的合照嗎?當時小扎稱,黃仁勛是“科技界的Taylor Swift”。


(資料圖片)

這被認為是兩個億萬富翁的世紀會面。

而就在剛剛,北京時間7月30日凌晨,黃仁勛與扎克伯格兩人再度現(xiàn)身計算機圖形學(xué)頂會SIGGRAPH 2024上,不僅迎來 AI 行業(yè)的世紀對談,探討 AI 和虛擬世界的基礎(chǔ)研究與未來。而且最后,小扎送黃仁勛一件定制皮衣,黃仁勛用自己標志性的“全新”皮衣與扎克伯格交換,留下了精彩一刻。

扎克伯格在對談中表示,從互聯(lián)網(wǎng)到移動互聯(lián)網(wǎng)之后,F(xiàn)acebook這類軟件在蘋果iOS系統(tǒng)平臺上受到了極大的限制,而如今,以Llama為首的開源AI模型將成為打敗蘋果封閉生態(tài)、微軟PC平臺的下一個新的至寶。“我非常樂觀地認為,在下一代比賽中,開源 AI 將會為Meta贏得勝利。”

“我未來10年或15年的事情之一,就是我只想確保Meta能夠建立基礎(chǔ)技術(shù),并將在此基礎(chǔ)上建立社交體驗,因為我已經(jīng)嘗試了太多的東西。

如果你剛剛被告知,在某種程度上,你需要通過平臺來構(gòu)建它,我只是想,不,去他媽的下一代(fuck that for the next generation),就像我們要一直往下構(gòu)建,并確保在那里。”扎克伯格再度炮轟蘋果封閉生態(tài)對于Meta公司的打擊。

黃仁勛則強調(diào),AI 正在變革一切。而“我們(英偉達十年前)改變了公司的一切,從處理器到系統(tǒng),再到軟件堆棧,所有的算法和視頻基礎(chǔ)研究都轉(zhuǎn)向深度學(xué)習(xí)。”

老黃小扎對談:開源AI正變革互聯(lián)網(wǎng)時代

“This is SIGGRAPH, these 90 % PhDs.”一上臺,黃仁勛就調(diào)侃了小扎,稱這個會議上的人90%都是博士,暗指小扎輟學(xué)創(chuàng)立Facebook的事情。

相比于大學(xué)本科期間就打造出Facebook并退學(xué)創(chuàng)業(yè)的扎克伯格,黃仁勛是在30歲才成為英偉達的聯(lián)合創(chuàng)始人。于是他提到:“我要是知道得花這么長時間才能成功的話……”

“你打從一開始就不會做這些了?”扎克伯格問道。

“不,我會像你一樣從大學(xué)輟學(xué)然后早點開始。” 黃仁勛表示。

實際上,英偉達和Meta之間的關(guān)系頗有淵源。當全球最強開源模型LLaMA一代推出之時,Meta采用英偉達A100 GPU卡進行訓(xùn)練,如今最新的Llama 3則是英偉達H100進行訓(xùn)練推理形成的。

早前扎克伯格承諾,到今年年底,Meta將擁有35萬塊英偉達H100 GPU,算力總和將接近于60萬塊H100所能提供的算力,預(yù)計投入成本高達70億美金以上。

扎克伯格在對話當中表示,Meta有一套算力集群訓(xùn)練技術(shù)方案。如今,多模態(tài)模型對于算力要求越來越高,而 AI 已經(jīng)深入到每家公司,在這其中構(gòu)建GPU基礎(chǔ)設(shè)施和運行大型推薦系統(tǒng)變得異常重要。

談到開源 AI,扎克伯格有些激動的表示,開源 AI 模型技術(shù)將成為 AI 時代下打敗閉源模型的重要動力。

“所以在這方面(Meta)有很多歷史。隨著時間的推移,我們做了很多開源工作。坦率地說,我認為部分原因是我們在其他一些科技公司之后開始建設(shè)分布式計算基礎(chǔ)設(shè)施和數(shù)據(jù)中心。正因為如此,當我們建造這些東西的時候,它并不是一個競爭優(yōu)勢。所以我們想,好吧,我們最好把它打開,然后我們將受益于圍繞它(開放)的生態(tài)系統(tǒng)。所以我們有很多這樣的項目。我認為,最大的一個可能是開放計算,我們采用了服務(wù)器設(shè)計和網(wǎng)絡(luò)設(shè)計。最終,數(shù)據(jù)中心設(shè)計并發(fā)布了所有這些內(nèi)容。通過讓它成為某種行業(yè)標準,所有的供應(yīng)鏈基本上都圍繞它組織起來,這對每個人都有省錢的好處。”扎克伯格表示。

黃仁勛也同意開源 AI 的重要性,也支持Meta公司的愿景。他表示,模型開源之后,每個人都可以有個AI ,每個企業(yè)都可以有一個AI,每個工程師和每個軟件開發(fā)人員都有一個AI。“我相信你也相信每個人和每個公司都應(yīng)該能夠制造自己的AI,所以你(Meta模型)實際上是開源的。”

“所以這是一項非常棒的體驗。當Llama出現(xiàn)的時候,我們有點積極地傾向于為 AI 模型做這件事。具體來說,我想我有幾種方式來看待這個問題。我的一個想法是,在過去的20年里,在公司里建造東西真的很有趣。但最困難的一件事是,我們必須通過競爭對手的移動平臺(蘋果)發(fā)布我們的應(yīng)用程序。所以一方面,移動平臺對這個行業(yè)來說是巨大的恩惠,這是非常棒的。

但另一方面,通過你的競爭對手來交付你的產(chǎn)品是具有挑戰(zhàn)性的。在我成長的那個時代,F(xiàn)acebook第一個版本是在網(wǎng)絡(luò)上,而且是開放的。然后作為向移動設(shè)備的過渡,有利的一面是,現(xiàn)在每個人的口袋里都有一臺‘電腦’。所以那很好。但缺點是,我們能做的事情受到了更多的限制。當你看這幾代計算時,有一種很大的限制和偏見,每個人都只看著移動設(shè)備,認為因為封閉的生態(tài)系統(tǒng),因為蘋果基本上贏了,并制定了條款。

從技術(shù)上講,我知道市面上有更多的安卓手機,但蘋果基本上擁有整個市場和所有的利潤?;旧希沧吭诎l(fā)展方面有點像蘋果。所以我認為蘋果很明顯贏得了這一代人。但并不總是這樣?;蛘呒词鼓慊氐揭淮艘郧?,蘋果也在做他們那種封閉的事情。

但是微軟,顯然不像這個完全開放的公司,但與蘋果相比,Windows運行在所有不同的原始設(shè)備制造商和不同的軟件,不同的硬件上。這是一個更加開放的生態(tài)系統(tǒng)和窗口。Windows是領(lǐng)先的生態(tài)系統(tǒng)。它基本上是那種PC時代的東西,開放的生態(tài)系統(tǒng)之一。我有點希望,在下一代計算中,我們將回到開放生態(tài)系統(tǒng)獲勝并處于領(lǐng)先地位的領(lǐng)域。然后,總會有一個封閉的和一個開放的。我認為兩者都有理由去做,兩者都有好處。我不是這方面的狂熱者,并不是我們發(fā)布的所有東西都是開放的。

但我認為,總的來說,對于整個行業(yè)正在構(gòu)建的計算平臺來說,這是很有價值的。如果軟件特別開放,這真的塑造了我的哲學(xué),無論是與Llama AI,還是我們在AR和VR方面所做的工作,我們基本上是在做基于開源技術(shù)的系統(tǒng)架構(gòu),比如在AR上構(gòu)建系統(tǒng)。因此,從某種意義上說,Android或Windows基本上是這樣的,但我們將能夠與許多不同的硬件公司合作,制造各種不同的設(shè)備。我們基本上只是想把生態(tài)系統(tǒng)恢復(fù)到開放的水平。”扎克伯格這一段言論,直接炮轟蘋果封閉系統(tǒng)對于Meta產(chǎn)品和收入的影響。

隨后,扎克伯格就開啟了“fuck”之旅,他說“讓我談?wù)摲忾]的平臺,我就會生氣”。

黃仁勛隨后繼續(xù)稱贊Meta的開源愿景,認為這種方式能讓所有人使用 AI 技術(shù)。

隨后談及虛擬現(xiàn)實的發(fā)展,扎克伯格指出,利用現(xiàn)有非常高質(zhì)量的 AI 技術(shù),AR技術(shù)能夠在全息AR出現(xiàn)之前以非常快的速度變得更好。“幸運的是,我們處于有利地位,因為我們正最終得到只是一系列不同價位、不同技術(shù)水平的眼鏡產(chǎn)品。所以我認為,基于我們現(xiàn)在看到的雷朋Meadows,我會猜測 AI 眼鏡在300美元的價位上將會是一個量級非常大的產(chǎn)品,數(shù)千萬或數(shù)億人最終將會擁有(它)。”

“我們開始建立一個GPU芯片?,F(xiàn)在,當您部署GPU時,您仍然將其稱為H100。所以你們知道,當扎克伯格稱它建立擁有60萬H100的數(shù)據(jù)中心的時候,我認為出現(xiàn)了好‘顧客’。但這件事太不可思議了我有一個巨大的系統(tǒng),非常難以協(xié)調(diào)、難以運行。你說你進入GPU的旅程比大多數(shù)人都晚,但你的規(guī)模比任何人都大。我祝賀你所做的一切真是難以置信,這真是個時尚偶像。”黃仁勛在演講結(jié)尾表示。

NVIDIA NIM時代已來

值得注意的是,伴隨這次訪談,本次SIGGRAPH 2024上,英偉達公布20多份研究論文和產(chǎn)品。其中,黃仁勛重點展示了一項英偉達的“第二曲線”業(yè)務(wù)——推理微服務(wù)NVIDIA NIM。

7月29日,英偉達推出了一套全新的NIM微服務(wù),專門針對不同工作流提供定制服務(wù),包括OpenUSD、3D建模、物理學(xué)、材質(zhì)、機器人、工業(yè)數(shù)字孿生和物理AI,旨在賦能開發(fā)人員,特別是在DGX Cloud上集成Hugging Face推理即服務(wù)。

同時,Shutterstock還推出了一項生成式3D服務(wù)。而在AI和圖形領(lǐng)域,英偉達發(fā)布了全新的OpenUSD NIM微服務(wù)和參考工作流,專為生成式物理AI應(yīng)用而設(shè)計。這包括一項通過面向機器人仿真的全新NIM微服務(wù)來加速人形機器人開發(fā)計劃。

實際上,所謂英偉達Nvidia inference microservices(NIMs)是通過經(jīng)優(yōu)化的容器的形式提供模型,以部署在云、數(shù)據(jù)中心或工作站上,是NVIDIA AI Enterprise業(yè)務(wù)的一部分。借助 NVIDIA NIM,全球超過2800萬名開發(fā)者能夠輕松地為Copilots、聊天機器人等構(gòu)建生成式 AI 應(yīng)用,所需時間從數(shù)周縮短至幾分鐘。

簡單來說,你可以理解為NIM是一種軟件模型服務(wù)即平臺,與無問芯穹推理模型服務(wù)、Hugging Face有點類似。

事實上,隨著2022年底OpenAI推出ChatGPT聊天機器人產(chǎn)品,GPT大模型技術(shù)在幾個月內(nèi)積累了超過 1 億用戶,幾乎推動了各行各業(yè)的開發(fā)活動激增。

而到了2023 年,開發(fā)者開始使用 Meta、Mistral、Stability等公司的 API 和開源社區(qū)模型創(chuàng)建模型或技術(shù)服務(wù)。

如今,2024年起,企業(yè)組織正將注意力轉(zhuǎn)向大規(guī)模生產(chǎn)部署,其中包括將 AI 模型連接到現(xiàn)有企業(yè)基礎(chǔ)設(shè)施、優(yōu)化系統(tǒng)延遲和吞吐量、日志記錄、監(jiān)控和安全性等。但是,這種生產(chǎn)路徑既復(fù)雜又耗時,需要專門的技能、平臺和流程,尤其是大規(guī)模部署。

就在此時,NVIDIA NIM應(yīng)運而生。

今年3月,英偉達首次公布該產(chǎn)品,并在 今年6月Computex電腦展上正式宣布,包括Cadence、Cloudera、Cohesity、DataStax、NetApp、Scale AI 和新思科技等近200家技術(shù)合作伙伴正在將 NIM 集成到他們的平臺中,以加快特定領(lǐng)域應(yīng)用的生成式 AI 部署,例如Copilot、代碼助手和數(shù)字人虛擬形象等。另外,從 Meta Llama 3 開始,在 Hugging Face 上現(xiàn)已開始提供 NIM。

黃仁勛在今年6月表示:“每個企業(yè)都希望在其運營中融入生成式 AI,但并非每個企業(yè)都擁有專門的 AI 研究團隊。NVIDIA NIM 可被集成到任意平臺中,任何地方的開發(fā)者都可以訪問,并且可以在任意環(huán)境中運行——它正在助力科技行業(yè)將生成式 AI 普及到每一個企業(yè)組織。”

具體來說,NVIDIA NIM主要有五個優(yōu)勢:

隨時隨地部署:NIM 專為可移植性和可控性而構(gòu)建,支持跨各種基礎(chǔ)設(shè)施 (從本地工作站到云再到本地數(shù)據(jù)中心) 進行模型部署。其中包括 NVIDIA DGX、 NVIDIA DGX 云、 NVIDIA 認證系統(tǒng)、 NVIDIA RTX 工作站和 PC。預(yù)構(gòu)建的容器和 Helm Chart 打包了優(yōu)化模型,并在不同的 NVIDIA 硬件平臺、云服務(wù)提供商和 Kubernetes 發(fā)行版中進行了嚴格驗證和基準測試。這支持所有 NVIDIA 驅(qū)動的環(huán)境,并確保組織可以在任何地方部署其生成式 AI 應(yīng)用,同時保持對其應(yīng)用及其處理的數(shù)據(jù)的全面控制。使用行業(yè)標準 API 進行開發(fā):開發(fā)者可以通過符合每個領(lǐng)域行業(yè)標準的 API 訪問 AI 模型,從而簡化 AI 應(yīng)用的開發(fā)。這些 API 與生態(tài)系統(tǒng)中的標準部署流程兼容,使開發(fā)者能夠快速更新其 AI 應(yīng)用 (通常只需 3 行代碼)。這種無縫集成和易用性有助于在企業(yè)環(huán)境中快速部署和擴展 AI 解決方案。利用特定領(lǐng)域的模型:NIM 還通過幾個關(guān)鍵功能滿足了對特定領(lǐng)域解決方案和優(yōu)化性能的需求。它包含特定于領(lǐng)域的 NVIDIA CUDA 庫,以及為語言、語音、視頻處理、醫(yī)療健康等各個領(lǐng)域量身定制的專用代碼。這種方法可確保應(yīng)用程序準確無誤并與其特定用例相關(guān)。在優(yōu)化的推理引擎上運行:NIM 針對每個模型和硬件設(shè)置利用經(jīng)過優(yōu)化的推理引擎,在加速基礎(chǔ)設(shè)施上提供盡可能好的延遲和吞吐量。這降低了在擴展推理工作負載時運行推理工作負載的成本,并改善了最終用戶體驗。除了支持優(yōu)化的社區(qū)模型外,開發(fā)者還可以通過使用從未離開數(shù)據(jù)中心邊界的專有數(shù)據(jù)源對模型進行對齊和微調(diào),從而實現(xiàn)更高的準確性和性能。支持企業(yè)級 AI:作為 NVIDIA AI Enterprise 的一部分,NIM 采用企業(yè)級基礎(chǔ)容器構(gòu)建,通過功能分支、嚴格的驗證、通過服務(wù)級別協(xié)議提供的企業(yè)級支持以及針對 CVE 的定期安全更新,為企業(yè) AI 軟件提供堅實的基礎(chǔ)。全面的支持結(jié)構(gòu)和優(yōu)化功能突出了 NIM 作為在生產(chǎn)環(huán)境中部署高效、可擴展和定制的 AI 應(yīng)用的關(guān)鍵工具的作用。

與此同時,開發(fā)者可以使用 NVIDIA 托管的云 API 測試新的生成式 AI 模型,或者通過下載 NIM 來自行托管模型,并在主要云提供商或本地使用 Kubernetes 快速部署,以減少開發(fā)時間、復(fù)雜性和成本。而且,NIM 微服務(wù)通過打包算法、系統(tǒng)和運行時優(yōu)化并添加行業(yè)標準 API 來簡化 AI 模型部署流程。

因此,借助 NIM,企業(yè)可以優(yōu)化其 AI 基礎(chǔ)架構(gòu),以更大限度地提高效率和成本效益,而無需擔心 AI 模型開發(fā)的復(fù)雜性和容器化。在加速 AI 基礎(chǔ)架構(gòu)的基礎(chǔ)上,NIM 有助于提高性能和可擴展性,同時降低硬件和運營成本。

另外,基于NIM,英偉達還提供跨不同領(lǐng)域定制模型服務(wù)。比如,NVIDIA NeMo使用專有數(shù)據(jù)為大模型、語音 AI 和多模態(tài)模型提供微調(diào)功能;NVIDIA BioNeMo通過生成生物學(xué)化學(xué)和分子預(yù)測模型集合加速藥物研發(fā);NVIDIA Picasso通過Edify模型實現(xiàn)更快的創(chuàng)意工作流程。這些模型在視覺內(nèi)容提供商的許可庫中進行訓(xùn)練,從而能夠部署自定義的生成式 AI 模型,以創(chuàng)建視覺內(nèi)容。

目前,開發(fā)者現(xiàn)在可以從 Hugging Face AI 平臺上,訪問 Meta Llama 3 模型的 NVIDIA NIM 微服務(wù)。通過基于 NVIDIA GPU 的 Hugging Face 推理端點,只需點擊幾下,開發(fā)者就能在其選擇的云平臺上輕松地訪問和運行 Llama 3 NIM。

具體到案例中,英偉達透露,作為全球最大的電子制造商,鴻海集團(Foxconn)正在使用 NIM 開發(fā)針對特定領(lǐng)域的大模型,并將這些模型嵌入到其 AI 工廠的各種內(nèi)部系統(tǒng)和流程中,用于智能制造、智慧城市和智能電動汽車;而西門子正在將其運營技術(shù)與 NIM 微服務(wù)整合,用于車間 AI 工作負載,此外西門子還利用NIM為Machine Operators 構(gòu)建了一個本地部署版本的 Industrial Copilot。

另外,英偉達稱,數(shù)十家醫(yī)療公司正在一系列應(yīng)用中部署 NIM,以便在手術(shù)規(guī)劃、數(shù)字助手、藥物研發(fā)和臨床試驗優(yōu)化等一系列應(yīng)用中為生成式 AI 推理提供動力。而且,埃森哲、德勤、Infosys、Latentview、Quantiphi、SoftServe、塔塔咨詢服務(wù)(TCS)和威普羅(Wipro)已經(jīng)建立了 NIM 能力,以幫助全球企業(yè)快速開發(fā)和部署生產(chǎn)型 AI 策略技術(shù)。

黃仁勛曾表示,未來,每臺設(shè)備都將運行 AI 軟件。因此,各個國家必須要做自己的主權(quán) AI,而當前,企業(yè)以及制定主權(quán) AI 戰(zhàn)略的國家正希望創(chuàng)建具有特定領(lǐng)域知識的自定義大語言模型,以便生成式 AI 應(yīng)用能夠反映其獨特的業(yè)務(wù)或文化。因此,這些新服務(wù)的推出恰逢其時。

黃仁勛強調(diào),英偉達用“加速計算”技術(shù)重新發(fā)明了計算機。在過去的8年里,英偉達提高了每個GPU芯片性能,AI 算力性能提高了1000倍。

“現(xiàn)在,你可以擁有一臺搭載GPU顯卡、速度快100倍、能效高20倍、成本低20倍的計算機,能夠解決復(fù)雜問題以及 AI 技術(shù)。”黃仁勛稱,“事實上,我創(chuàng)造了‘加速計算’這個詞。”

黃仁勛解釋說,機器人技術(shù)需要三臺計算機:一臺用于訓(xùn)練AI,一臺用于在精確的物理模擬環(huán)境中測試AI,另一臺則安裝在機器人內(nèi)部。

“幾乎每個行業(yè)都將受到這項技術(shù)的影響,無論是科學(xué)計算以更少的能源更好地預(yù)測天氣,還是與創(chuàng)作者合作生成圖像,或為工業(yè)可視化創(chuàng)建虛以場景。生成式AI還將徹底改變機器人自動駕駛汽車領(lǐng)域。”黃仁勛表示。

黃仁勛強調(diào),未來,客戶服務(wù)這一職業(yè)仍將由人類主導(dǎo),但會有AI參與其中。所有這些創(chuàng)新技術(shù),就像任何新工具一樣,都有望增強人類的生產(chǎn)力和創(chuàng)造力。“想象一下,有了這些工具,你將能夠講述哪些新故事。”

關(guān)鍵詞: 黃仁勛 小扎 世紀對談 蘋果 AI

分享到:
版權(quán)和免責申明

凡注有"環(huán)球傳媒網(wǎng)"或電頭為"環(huán)球傳媒網(wǎng)"的稿件,均為環(huán)球傳媒網(wǎng)獨家版權(quán)所有,未經(jīng)許可不得轉(zhuǎn)載或鏡像;授權(quán)轉(zhuǎn)載必須注明來源為"環(huán)球傳媒網(wǎng)",并保留"環(huán)球傳媒網(wǎng)"的電頭。

Copyright ? 1999-2017 cqtimes.cn All Rights Reserved 環(huán)球傳媒網(wǎng)-重新發(fā)現(xiàn)生活版權(quán)所有 聯(lián)系郵箱:8553 591@qq.com