還記得今年3月Meta CEO扎克伯格(Mark Zuckerberg)曬出的這張與英偉達CEO黃仁勛的合照嗎?當(dāng)時小扎稱,黃仁勛是“科技界的Taylor Swift”。
這被認為是兩個億萬富翁的世紀(jì)會面。
(資料圖)
而就在剛剛,北京時間7月30日凌晨,黃仁勛與扎克伯格兩人再度現(xiàn)身計算機圖形學(xué)頂會SIGGRAPH 2024上,不僅迎來 AI 行業(yè)的世紀(jì)對談,探討 AI 和虛擬世界的基礎(chǔ)研究與未來。而且最后,小扎送黃仁勛一件定制皮衣,黃仁勛用自己標(biāo)志性的“全新”皮衣與扎克伯格交換,留下了精彩一刻。
扎克伯格在對談中表示,從互聯(lián)網(wǎng)到移動互聯(lián)網(wǎng)之后,F(xiàn)acebook這類軟件在蘋果iOS系統(tǒng)平臺上受到了極大的限制,而如今,以Llama為首的開源AI模型將成為打敗蘋果封閉生態(tài)、微軟PC平臺的下一個新的至寶。“我非常樂觀地認為,在下一代比賽中,開源 AI 將會為Meta贏得勝利。”
“我未來10年或15年的事情之一,就是我只想確保Meta能夠建立基礎(chǔ)技術(shù),并將在此基礎(chǔ)上建立社交體驗,因為我已經(jīng)嘗試了太多的東西。
如果你剛剛被告知,在某種程度上,你需要通過平臺來構(gòu)建它,我只是想,不,去他媽的下一代(fuck that for the next generation),就像我們要一直往下構(gòu)建,并確保在那里。”扎克伯格再度炮轟蘋果封閉生態(tài)對于Meta公司的打擊。
黃仁勛則強調(diào),AI 正在變革一切。而“我們(英偉達十年前)改變了公司的一切,從處理器到系統(tǒng),再到軟件堆棧,所有的算法和視頻基礎(chǔ)研究都轉(zhuǎn)向深度學(xué)習(xí)。”
老黃小扎對談:開源AI正變革互聯(lián)網(wǎng)時代
“This is SIGGRAPH, these 90 % PhDs.”一上臺,黃仁勛就調(diào)侃了小扎,稱這個會議上的人90%都是博士,暗指小扎輟學(xué)創(chuàng)立Facebook的事情。
相比于大學(xué)本科期間就打造出Facebook并退學(xué)創(chuàng)業(yè)的扎克伯格,黃仁勛是在30歲才成為英偉達的聯(lián)合創(chuàng)始人。于是他提到:“我要是知道得花這么長時間才能成功的話……”
“你打從一開始就不會做這些了?”扎克伯格問道。
“不,我會像你一樣從大學(xué)輟學(xué)然后早點開始。” 黃仁勛表示。
實際上,英偉達和Meta之間的關(guān)系頗有淵源。當(dāng)全球最強開源模型LLaMA一代推出之時,Meta采用英偉達A100 GPU卡進行訓(xùn)練,如今最新的Llama 3則是英偉達H100進行訓(xùn)練推理形成的。
早前扎克伯格承諾,到今年年底,Meta將擁有35萬塊英偉達H100 GPU,算力總和將接近于60萬塊H100所能提供的算力,預(yù)計投入成本高達70億美金以上。
扎克伯格在對話當(dāng)中表示,Meta有一套算力集群訓(xùn)練技術(shù)方案。如今,多模態(tài)模型對于算力要求越來越高,而 AI 已經(jīng)深入到每家公司,在這其中構(gòu)建GPU基礎(chǔ)設(shè)施和運行大型推薦系統(tǒng)變得異常重要。
談到開源 AI,扎克伯格有些激動的表示,開源 AI 模型技術(shù)將成為 AI 時代下打敗閉源模型的重要動力。
“所以在這方面(Meta)有很多歷史。隨著時間的推移,我們做了很多開源工作。坦率地說,我認為部分原因是我們在其他一些科技公司之后開始建設(shè)分布式計算基礎(chǔ)設(shè)施和數(shù)據(jù)中心。正因為如此,當(dāng)我們建造這些東西的時候,它并不是一個競爭優(yōu)勢。所以我們想,好吧,我們最好把它打開,然后我們將受益于圍繞它(開放)的生態(tài)系統(tǒng)。所以我們有很多這樣的項目。我認為,最大的一個可能是開放計算,我們采用了服務(wù)器設(shè)計和網(wǎng)絡(luò)設(shè)計。最終,數(shù)據(jù)中心設(shè)計并發(fā)布了所有這些內(nèi)容。通過讓它成為某種行業(yè)標(biāo)準(zhǔn),所有的供應(yīng)鏈基本上都圍繞它組織起來,這對每個人都有省錢的好處。”扎克伯格表示。
黃仁勛也同意開源 AI 的重要性,也支持Meta公司的愿景。他表示,模型開源之后,每個人都可以有個AI ,每個企業(yè)都可以有一個AI,每個工程師和每個軟件開發(fā)人員都有一個AI。“我相信你也相信每個人和每個公司都應(yīng)該能夠制造自己的AI,所以你(Meta模型)實際上是開源的。”
“所以這是一項非常棒的體驗。當(dāng)Llama出現(xiàn)的時候,我們有點積極地傾向于為 AI 模型做這件事。具體來說,我想我有幾種方式來看待這個問題。我的一個想法是,在過去的20年里,在公司里建造東西真的很有趣。但最困難的一件事是,我們必須通過競爭對手的移動平臺(蘋果)發(fā)布我們的應(yīng)用程序。所以一方面,移動平臺對這個行業(yè)來說是巨大的恩惠,這是非常棒的。
但另一方面,通過你的競爭對手來交付你的產(chǎn)品是具有挑戰(zhàn)性的。在我成長的那個時代,F(xiàn)acebook第一個版本是在網(wǎng)絡(luò)上,而且是開放的。然后作為向移動設(shè)備的過渡,有利的一面是,現(xiàn)在每個人的口袋里都有一臺‘電腦’。所以那很好。但缺點是,我們能做的事情受到了更多的限制。當(dāng)你看這幾代計算時,有一種很大的限制和偏見,每個人都只看著移動設(shè)備,認為因為封閉的生態(tài)系統(tǒng),因為蘋果基本上贏了,并制定了條款。
從技術(shù)上講,我知道市面上有更多的安卓手機,但蘋果基本上擁有整個市場和所有的利潤?;旧?,安卓在發(fā)展方面有點像蘋果。所以我認為蘋果很明顯贏得了這一代人。但并不總是這樣?;蛘呒词鼓慊氐揭淮艘郧埃O果也在做他們那種封閉的事情。
但是微軟,顯然不像這個完全開放的公司,但與蘋果相比,Windows運行在所有不同的原始設(shè)備制造商和不同的軟件,不同的硬件上。這是一個更加開放的生態(tài)系統(tǒng)和窗口。Windows是領(lǐng)先的生態(tài)系統(tǒng)。它基本上是那種PC時代的東西,開放的生態(tài)系統(tǒng)之一。我有點希望,在下一代計算中,我們將回到開放生態(tài)系統(tǒng)獲勝并處于領(lǐng)先地位的領(lǐng)域。然后,總會有一個封閉的和一個開放的。我認為兩者都有理由去做,兩者都有好處。我不是這方面的狂熱者,并不是我們發(fā)布的所有東西都是開放的。
但我認為,總的來說,對于整個行業(yè)正在構(gòu)建的計算平臺來說,這是很有價值的。如果軟件特別開放,這真的塑造了我的哲學(xué),無論是與Llama AI,還是我們在AR和VR方面所做的工作,我們基本上是在做基于開源技術(shù)的系統(tǒng)架構(gòu),比如在AR上構(gòu)建系統(tǒng)。因此,從某種意義上說,Android或Windows基本上是這樣的,但我們將能夠與許多不同的硬件公司合作,制造各種不同的設(shè)備。我們基本上只是想把生態(tài)系統(tǒng)恢復(fù)到開放的水平。”扎克伯格這一段言論,直接炮轟蘋果封閉系統(tǒng)對于Meta產(chǎn)品和收入的影響。
隨后,扎克伯格就開啟了“fuck”之旅,他說“讓我談?wù)摲忾]的平臺,我就會生氣”。
黃仁勛隨后繼續(xù)稱贊Meta的開源愿景,認為這種方式能讓所有人使用 AI 技術(shù)。
隨后談及虛擬現(xiàn)實的發(fā)展,扎克伯格指出,利用現(xiàn)有非常高質(zhì)量的 AI 技術(shù),AR技術(shù)能夠在全息AR出現(xiàn)之前以非??斓乃俣茸兊酶谩?ldquo;幸運的是,我們處于有利地位,因為我們正最終得到只是一系列不同價位、不同技術(shù)水平的眼鏡產(chǎn)品。所以我認為,基于我們現(xiàn)在看到的雷朋Meadows,我會猜測 AI 眼鏡在300美元的價位上將會是一個量級非常大的產(chǎn)品,數(shù)千萬或數(shù)億人最終將會擁有(它)。”
“我們開始建立一個GPU芯片?,F(xiàn)在,當(dāng)您部署GPU時,您仍然將其稱為H100。所以你們知道,當(dāng)扎克伯格稱它建立擁有60萬H100的數(shù)據(jù)中心的時候,我認為出現(xiàn)了好‘顧客’。但這件事太不可思議了我有一個巨大的系統(tǒng),非常難以協(xié)調(diào)、難以運行。你說你進入GPU的旅程比大多數(shù)人都晚,但你的規(guī)模比任何人都大。我祝賀你所做的一切真是難以置信,這真是個時尚偶像。”黃仁勛在演講結(jié)尾表示。
NVIDIA NIM時代已來
值得注意的是,伴隨這次訪談,本次SIGGRAPH 2024上,英偉達公布20多份研究論文和產(chǎn)品。其中,黃仁勛重點展示了一項英偉達的“第二曲線”業(yè)務(wù)——推理微服務(wù)NVIDIA NIM。
7月29日,英偉達推出了一套全新的NIM微服務(wù),專門針對不同工作流提供定制服務(wù),包括OpenUSD、3D建模、物理學(xué)、材質(zhì)、機器人、工業(yè)數(shù)字孿生和物理AI,旨在賦能開發(fā)人員,特別是在DGX Cloud上集成Hugging Face推理即服務(wù)。
同時,Shutterstock還推出了一項生成式3D服務(wù)。而在AI和圖形領(lǐng)域,英偉達發(fā)布了全新的OpenUSD NIM微服務(wù)和參考工作流,專為生成式物理AI應(yīng)用而設(shè)計。這包括一項通過面向機器人仿真的全新NIM微服務(wù)來加速人形機器人開發(fā)計劃。
實際上,所謂英偉達Nvidia inference microservices(NIMs)是通過經(jīng)優(yōu)化的容器的形式提供模型,以部署在云、數(shù)據(jù)中心或工作站上,是NVIDIA AI Enterprise業(yè)務(wù)的一部分。借助 NVIDIA NIM,全球超過2800萬名開發(fā)者能夠輕松地為Copilots、聊天機器人等構(gòu)建生成式 AI 應(yīng)用,所需時間從數(shù)周縮短至幾分鐘。
簡單來說,你可以理解為NIM是一種軟件模型服務(wù)即平臺,與無問芯穹推理模型服務(wù)、Hugging Face有點類似。
事實上,隨著2022年底OpenAI推出ChatGPT聊天機器人產(chǎn)品,GPT大模型技術(shù)在幾個月內(nèi)積累了超過 1 億用戶,幾乎推動了各行各業(yè)的開發(fā)活動激增。
而到了2023 年,開發(fā)者開始使用 Meta、Mistral、Stability等公司的 API 和開源社區(qū)模型創(chuàng)建模型或技術(shù)服務(wù)。
如今,2024年起,企業(yè)組織正將注意力轉(zhuǎn)向大規(guī)模生產(chǎn)部署,其中包括將 AI 模型連接到現(xiàn)有企業(yè)基礎(chǔ)設(shè)施、優(yōu)化系統(tǒng)延遲和吞吐量、日志記錄、監(jiān)控和安全性等。但是,這種生產(chǎn)路徑既復(fù)雜又耗時,需要專門的技能、平臺和流程,尤其是大規(guī)模部署。
就在此時,NVIDIA NIM應(yīng)運而生。
今年3月,英偉達首次公布該產(chǎn)品,并在 今年6月Computex電腦展上正式宣布,包括Cadence、Cloudera、Cohesity、DataStax、NetApp、Scale AI 和新思科技等近200家技術(shù)合作伙伴正在將 NIM 集成到他們的平臺中,以加快特定領(lǐng)域應(yīng)用的生成式 AI 部署,例如Copilot、代碼助手和數(shù)字人虛擬形象等。另外,從 Meta Llama 3 開始,在 Hugging Face 上現(xiàn)已開始提供 NIM。
黃仁勛在今年6月表示:“每個企業(yè)都希望在其運營中融入生成式 AI,但并非每個企業(yè)都擁有專門的 AI 研究團隊。NVIDIA NIM 可被集成到任意平臺中,任何地方的開發(fā)者都可以訪問,并且可以在任意環(huán)境中運行——它正在助力科技行業(yè)將生成式 AI 普及到每一個企業(yè)組織。”
具體來說,NVIDIA NIM主要有五個優(yōu)勢:
隨時隨地部署:NIM 專為可移植性和可控性而構(gòu)建,支持跨各種基礎(chǔ)設(shè)施 (從本地工作站到云再到本地數(shù)據(jù)中心) 進行模型部署。其中包括 NVIDIA DGX、 NVIDIA DGX 云、 NVIDIA 認證系統(tǒng)、 NVIDIA RTX 工作站和 PC。預(yù)構(gòu)建的容器和 Helm Chart 打包了優(yōu)化模型,并在不同的 NVIDIA 硬件平臺、云服務(wù)提供商和 Kubernetes 發(fā)行版中進行了嚴(yán)格驗證和基準(zhǔn)測試。這支持所有 NVIDIA 驅(qū)動的環(huán)境,并確保組織可以在任何地方部署其生成式 AI 應(yīng)用,同時保持對其應(yīng)用及其處理的數(shù)據(jù)的全面控制。使用行業(yè)標(biāo)準(zhǔn) API 進行開發(fā):開發(fā)者可以通過符合每個領(lǐng)域行業(yè)標(biāo)準(zhǔn)的 API 訪問 AI 模型,從而簡化 AI 應(yīng)用的開發(fā)。這些 API 與生態(tài)系統(tǒng)中的標(biāo)準(zhǔn)部署流程兼容,使開發(fā)者能夠快速更新其 AI 應(yīng)用 (通常只需 3 行代碼)。這種無縫集成和易用性有助于在企業(yè)環(huán)境中快速部署和擴展 AI 解決方案。利用特定領(lǐng)域的模型:NIM 還通過幾個關(guān)鍵功能滿足了對特定領(lǐng)域解決方案和優(yōu)化性能的需求。它包含特定于領(lǐng)域的 NVIDIA CUDA 庫,以及為語言、語音、視頻處理、醫(yī)療健康等各個領(lǐng)域量身定制的專用代碼。這種方法可確保應(yīng)用程序準(zhǔn)確無誤并與其特定用例相關(guān)。在優(yōu)化的推理引擎上運行:NIM 針對每個模型和硬件設(shè)置利用經(jīng)過優(yōu)化的推理引擎,在加速基礎(chǔ)設(shè)施上提供盡可能好的延遲和吞吐量。這降低了在擴展推理工作負載時運行推理工作負載的成本,并改善了最終用戶體驗。除了支持優(yōu)化的社區(qū)模型外,開發(fā)者還可以通過使用從未離開數(shù)據(jù)中心邊界的專有數(shù)據(jù)源對模型進行對齊和微調(diào),從而實現(xiàn)更高的準(zhǔn)確性和性能。支持企業(yè)級 AI:作為 NVIDIA AI Enterprise 的一部分,NIM 采用企業(yè)級基礎(chǔ)容器構(gòu)建,通過功能分支、嚴(yán)格的驗證、通過服務(wù)級別協(xié)議提供的企業(yè)級支持以及針對 CVE 的定期安全更新,為企業(yè) AI 軟件提供堅實的基礎(chǔ)。全面的支持結(jié)構(gòu)和優(yōu)化功能突出了 NIM 作為在生產(chǎn)環(huán)境中部署高效、可擴展和定制的 AI 應(yīng)用的關(guān)鍵工具的作用。
與此同時,開發(fā)者可以使用 NVIDIA 托管的云 API 測試新的生成式 AI 模型,或者通過下載 NIM 來自行托管模型,并在主要云提供商或本地使用 Kubernetes 快速部署,以減少開發(fā)時間、復(fù)雜性和成本。而且,NIM 微服務(wù)通過打包算法、系統(tǒng)和運行時優(yōu)化并添加行業(yè)標(biāo)準(zhǔn) API 來簡化 AI 模型部署流程。
因此,借助 NIM,企業(yè)可以優(yōu)化其 AI 基礎(chǔ)架構(gòu),以更大限度地提高效率和成本效益,而無需擔(dān)心 AI 模型開發(fā)的復(fù)雜性和容器化。在加速 AI 基礎(chǔ)架構(gòu)的基礎(chǔ)上,NIM 有助于提高性能和可擴展性,同時降低硬件和運營成本。
另外,基于NIM,英偉達還提供跨不同領(lǐng)域定制模型服務(wù)。比如,NVIDIA NeMo使用專有數(shù)據(jù)為大模型、語音 AI 和多模態(tài)模型提供微調(diào)功能;NVIDIA BioNeMo通過生成生物學(xué)化學(xué)和分子預(yù)測模型集合加速藥物研發(fā);NVIDIA Picasso通過Edify模型實現(xiàn)更快的創(chuàng)意工作流程。這些模型在視覺內(nèi)容提供商的許可庫中進行訓(xùn)練,從而能夠部署自定義的生成式 AI 模型,以創(chuàng)建視覺內(nèi)容。
目前,開發(fā)者現(xiàn)在可以從 Hugging Face AI 平臺上,訪問 Meta Llama 3 模型的 NVIDIA NIM 微服務(wù)。通過基于 NVIDIA GPU 的 Hugging Face 推理端點,只需點擊幾下,開發(fā)者就能在其選擇的云平臺上輕松地訪問和運行 Llama 3 NIM。
具體到案例中,英偉達透露,作為全球最大的電子制造商,鴻海集團(Foxconn)正在使用 NIM 開發(fā)針對特定領(lǐng)域的大模型,并將這些模型嵌入到其 AI 工廠的各種內(nèi)部系統(tǒng)和流程中,用于智能制造、智慧城市和智能電動汽車;而西門子正在將其運營技術(shù)與 NIM 微服務(wù)整合,用于車間 AI 工作負載,此外西門子還利用NIM為Machine Operators 構(gòu)建了一個本地部署版本的 Industrial Copilot。
另外,英偉達稱,數(shù)十家醫(yī)療公司正在一系列應(yīng)用中部署 NIM,以便在手術(shù)規(guī)劃、數(shù)字助手、藥物研發(fā)和臨床試驗優(yōu)化等一系列應(yīng)用中為生成式 AI 推理提供動力。而且,埃森哲、德勤、Infosys、Latentview、Quantiphi、SoftServe、塔塔咨詢服務(wù)(TCS)和威普羅(Wipro)已經(jīng)建立了 NIM 能力,以幫助全球企業(yè)快速開發(fā)和部署生產(chǎn)型 AI 策略技術(shù)。
黃仁勛曾表示,未來,每臺設(shè)備都將運行 AI 軟件。因此,各個國家必須要做自己的主權(quán) AI,而當(dāng)前,企業(yè)以及制定主權(quán) AI 戰(zhàn)略的國家正希望創(chuàng)建具有特定領(lǐng)域知識的自定義大語言模型,以便生成式 AI 應(yīng)用能夠反映其獨特的業(yè)務(wù)或文化。因此,這些新服務(wù)的推出恰逢其時。
黃仁勛強調(diào),英偉達用“加速計算”技術(shù)重新發(fā)明了計算機。在過去的8年里,英偉達提高了每個GPU芯片性能,AI 算力性能提高了1000倍。
“現(xiàn)在,你可以擁有一臺搭載GPU顯卡、速度快100倍、能效高20倍、成本低20倍的計算機,能夠解決復(fù)雜問題以及 AI 技術(shù)。”黃仁勛稱,“事實上,我創(chuàng)造了‘加速計算’這個詞。”
黃仁勛解釋說,機器人技術(shù)需要三臺計算機:一臺用于訓(xùn)練AI,一臺用于在精確的物理模擬環(huán)境中測試AI,另一臺則安裝在機器人內(nèi)部。
“幾乎每個行業(yè)都將受到這項技術(shù)的影響,無論是科學(xué)計算以更少的能源更好地預(yù)測天氣,還是與創(chuàng)作者合作生成圖像,或為工業(yè)可視化創(chuàng)建虛以場景。生成式AI還將徹底改變機器人自動駕駛汽車領(lǐng)域。”黃仁勛表示。
黃仁勛強調(diào),未來,客戶服務(wù)這一職業(yè)仍將由人類主導(dǎo),但會有AI參與其中。所有這些創(chuàng)新技術(shù),就像任何新工具一樣,都有望增強人類的生產(chǎn)力和創(chuàng)造力。“想象一下,有了這些工具,你將能夠講述哪些新故事。”
凡注有"環(huán)球傳媒網(wǎng)"或電頭為"環(huán)球傳媒網(wǎng)"的稿件,均為環(huán)球傳媒網(wǎng)獨家版權(quán)所有,未經(jīng)許可不得轉(zhuǎn)載或鏡像;授權(quán)轉(zhuǎn)載必須注明來源為"環(huán)球傳媒網(wǎng)",并保留"環(huán)球傳媒網(wǎng)"的電頭。
- 資訊:黃仁勛小扎世紀(jì)對談:蘋果贏了上一代,開源AI將贏下新時代
- 世界熱頭條丨晉商銀行太原富力華庭社區(qū)支行終止?fàn)I業(yè),10日內(nèi)繳回金融許可證
- ?西平縣柏苑街道扎實開展反詐宣傳進社區(qū)活動_觀熱點
- 生態(tài)環(huán)境部:入河、入海排污口監(jiān)督管理辦法將印發(fā)_觀點
- 駐馬店開發(fā)區(qū)金山辦事處賈莊居委會開展“慶八一”慰問退役軍人活動
- 遂平縣文城鄉(xiāng)組織人大代表接訪值班_焦點報道
- 上百家!周大福第一季度內(nèi)地零售點關(guān)閉數(shù)量超預(yù)期
- 重點聚焦!?西平縣文廣旅局扎實開展第四次全國文物普查業(yè)務(wù)培訓(xùn)
- 熱點!世紀(jì)華通謝斐:游戲人的基業(yè)長青源于自我革新
- 巴黎奧運會首個比賽日來了:包含足球、七人制橄欖球兩大項目_世界觀天下
資訊
- 中國人壽財險深耕田間地頭 護航“三農(nóng)”發(fā)展
- 美國馬里蘭州一購物中心發(fā)生槍擊致1人死亡 槍手在逃|全球快看
- 跨越三千里,共護“小候鳥”平安過暑假
- 中新真探:保健品比藥品更安全且效果更好嗎? 最新消息
- 世界觀察:以案說法|“間諜罪”是行為犯而非結(jié)果犯
- 嫦娥五號月球樣本研究獲重大進展:首次在月壤中發(fā)現(xiàn)分子水
- 香港中文大學(xué)研究生申請,去香港中文大學(xué)讀研一年費用-全球速訊
- 國際詩人在浙江共寫青春詩篇《在中國富春江上》 全球最資訊
- 【世界獨家】駐馬店市驛城區(qū)板橋鎮(zhèn)林莊村黨支部書記:在防汛一線踐行初心使命
- 孝感酒釀在盒馬賣斷貨 酒釀成甜品市場“票房保障” 前沿資訊
焦點
- 上海:集中資源打造兼具投資、運營功能的國有資本投資運營專業(yè)平臺和高能級基金管理機?構(gòu)
- 中金:以舊換新有望拉動下半年大型家電零售恢復(fù)增長 看好海信家電、海爾智家及TCL電子|天天最資訊
- 熱門:省聯(lián)社改革更進一步!25家銀行擬合并組建河南農(nóng)商銀行
- 【全球獨家】南陽市臥龍區(qū)法院開展家庭教育普法宣傳活動
- 鄧州市體育事業(yè)發(fā)展中心召開社會領(lǐng)域團體專項監(jiān)督治理工作會 焦點要聞
- 駐馬店市驛城區(qū)老街街道:環(huán)境衛(wèi)生整治 擦亮“幸福和諧星”底色
- ?駐馬店市衛(wèi)健委組織專家組蒞臨西平縣婦幼保健院檢查指導(dǎo)婦幼健康相關(guān)項目工作
- 14一15歲叛逆期厭學(xué)怎么辦 天天實時
- 焦點資訊:駐馬店開發(fā)區(qū)金河辦事處小界牌社區(qū):加強水域巡查 筑牢“安全防線”
- 視焦點訊!快看!“機器狗”來了 守護萬家清涼