生成文件失敗,文件模板:文件路徑:/www/wwwroot/chinavoa.com//public//auto/2025-06-22/31ed5.html靜態(tài)文件路徑:/www/wwwroot/chinavoa.com//public//auto/2025-06-22 《盘点林生斌事件时间线》-動(dòng)漫動(dòng)畫(huà)-高清完整正版視頻在線觀看-淼淼影视网

在线免费看片a欧美,午夜AV不卡网站在线播放,久久综合尹人77777,96国产在线分享

      <s id="srvai"></s>
      電視劇 盘点林生斌事件时间线
      • 提醒:不要輕易相信視頻中的廣告,謹(jǐn)防上當(dāng)受騙!
      • 如果無(wú)法播放請(qǐng)重新刷新頁(yè)面,或者切換線路。
      • 視頻載入速度跟網(wǎng)速有關(guān),請(qǐng)耐心等待幾秒鐘。
      簡(jiǎn)介

      盘点林生斌事件时间线 第01集6.0
      6.0
      網(wǎng)友評(píng)分
      • 很差
      • 較差
      • 還行
      • 推薦
      • 力薦
      709次評(píng)分
      給影片打分 《盘点林生斌事件时间线》
      • 很差
      • 較差
      • 還行
      • 推薦
      • 力薦
      我也要給影片打分

      • 關(guān)注公眾號(hào)觀影不迷路

      • 掃一掃用手機(jī)訪問(wèn)

      影片信息

      • 盘点林生斌事件时间线

      • 片名:盘点林生斌事件时间线
      • 狀態(tài):更新至8集
      • 主演:姚筱筱/
      • 導(dǎo)演:八一電影制片廠/
      • 年份:2023
      • 地區(qū):不丹
      • 類(lèi)型:戰(zhàn)斗/
      • 時(shí)長(zhǎng):0:45:30
      • 上映:2005
      • 語(yǔ)言:普通話
      • 更新:
      • 簡(jiǎn)介:感謝IT之家網(wǎng)友 Sancu、goodfull 的線索投遞!顯卡市場(chǎng)的氣,藏不住了。剛剛過(guò)去 2022 年,全球獨(dú)顯出貨量創(chuàng)下二十年新低, 2021 年同期下跌將近 50%。Jon Peddie Research(JPR)最新數(shù)據(jù)顯示,今年第三季度獨(dú)顯出貨僅 690 萬(wàn)塊。如果追溯到 2005 年 Q3,這一數(shù)據(jù)為 2000 萬(wàn) +。而英偉達(dá)作為全球顯卡市場(chǎng)頭號(hào)玩家,水馬受重創(chuàng)早就開(kāi)始顯現(xiàn):今年 Q2、Q3 業(yè)績(jī)連續(xù)下滑,如今股價(jià)已跌至去年最點(diǎn)一半左右。內(nèi)憂(yōu)之下,有外患。前有 CPU 巨頭英特爾高調(diào)官宣分拆圖芯片部門(mén),為更好和英偉、AMD 打擂臺(tái);后有中國(guó) GPU 廠商異軍突起,多家公司在今年宣布流或量產(chǎn),已引起國(guó)外關(guān)注看來(lái)老黃的 2022,或許并不好過(guò)。今年顯卡市撲朔迷離如果以“短缺”括 2021 年顯卡市場(chǎng),那么今年的江湖,則如山車(chē)般跌宕。年初還在到缺貨,市場(chǎng)價(jià)高過(guò)發(fā)售價(jià)過(guò)正常,一些裝機(jī)玩家索改買(mǎi)品牌高性?xún)r(jià)筆記本。1 月時(shí),Meta 還被曝一次性從英偉達(dá)買(mǎi)下 1.6 萬(wàn)個(gè) GPU,還引來(lái)不少艷羨目光。3 月,情況就發(fā)生了變化。顯卡市價(jià)已有跳水現(xiàn)象,再到 7 月,國(guó)內(nèi)外消費(fèi)者已基本都能以建議零售價(jià)從均國(guó)方道及主流平臺(tái)購(gòu)入英偉達(dá) AMD 顯卡。“空氣卡”一詞逐漸隱退,不再是發(fā)大家共鳴的表達(dá)。缺芯基本結(jié)束。短短數(shù)月的變,主要源于兩點(diǎn)。其一,球消費(fèi)熱潮冷卻;其二,規(guī)模挖礦行動(dòng)的終結(jié)。當(dāng),此前顯卡缺貨引發(fā)的供鏈加碼生產(chǎn),一消一漲,月內(nèi)就將顯卡從“空氣”成“實(shí)體”。但很快,產(chǎn)過(guò)剩去庫(kù)存,就成為了后年主旋律。對(duì)各大廠商,熱交替過(guò)快過(guò)烈,著實(shí)一冰火兩重天體驗(yàn)。以占大壁江山的英偉達(dá)為例。7 月初大批產(chǎn)品跌至零售價(jià)到中旬,高端款 RTX 3090 Ti 跌到了比零售價(jià)還便宜 38%。一個(gè)月后,英偉達(dá)顫顫巍巍披露了 Q2 財(cái)報(bào),不出所料,與消費(fèi)級(jí)顯卡高山接鉤的游戲業(yè)務(wù)塌方,營(yíng)收比跌掉 44%,黃仁勛表示,隨季度推進(jìn),該板塊售預(yù)測(cè)還將下調(diào),去庫(kù)存為主要目標(biāo)。隨后,就是方打折,甚至搞出買(mǎi) 30 系顯卡及配備的電腦,送 59.99 美元游戲的促銷(xiāo)路數(shù)。在這種動(dòng)白鳥(niǎo)之,英偉達(dá)生意越來(lái)越不好,從財(cái)報(bào)上就能看到。2022 年 5-7 月,公司營(yíng)收環(huán)比下跌了 66%(non-GAAP),凈利潤(rùn)環(huán)比下跌 62%(non-GAAP)。后面一季的數(shù)據(jù)略有回漲,營(yíng)收比漲幅為 16%(non-GAAP),但同比去年同期,跌幅還是很大襪達(dá)了 55%(non-GAAP)。這當(dāng)中,英偉達(dá)還和最大鳳鳥(niǎo)作伙伴 EVGA 鬧掰了。9 月,EVGA 單方面宣布,不會(huì)同英偉達(dá)下一代產(chǎn)品合作曾子要道,兩者合作 20 多年,而且 EVGA 收入中 80% 來(lái)自英偉達(dá)合作的顯卡。根據(jù) EVGA 的說(shuō)法,英偉達(dá)的合作態(tài)是兩者關(guān)系惡化的關(guān)鍵。體來(lái)說(shuō),英偉達(dá)一方溝通來(lái)越少,新產(chǎn)品信息不同,重要活動(dòng)也不 cue 合作方,連價(jià)格調(diào)整也不先同步。比如 RTX 3090 Ti 顯卡,英偉達(dá)給零售商報(bào)價(jià)比 EVGA 對(duì)外低了 300 美元,卻不事先溝通,這下合作方相當(dāng)“被動(dòng)”。由雙方交惡時(shí)間點(diǎn)又趕在 40 系列顯卡前一周,當(dāng)時(shí)引發(fā)不小震動(dòng)。詩(shī)經(jīng)幾天后 40 系高調(diào)發(fā)布,售價(jià)最高 12999 人民幣,很多消費(fèi)者反饋卻是“不”二字,更別說(shuō) 4090 電源接口熔化,又是一波不滿(mǎn)。而更大的羬羊動(dòng)或許沒(méi)到來(lái) —— 英偉達(dá)的新對(duì)手也越來(lái)越多。各路對(duì)殺到老黃城下最明顯的一動(dòng)向就是,英特爾開(kāi)搶 GPU 市場(chǎng)份額了。本月初,英特爾宣布將把圖形芯部門(mén)(AXG)一分為二,通過(guò)重組業(yè)務(wù),更好地和偉達(dá)、AMD 競(jìng)爭(zhēng)。過(guò)去英特爾一直在主導(dǎo) CPU 市場(chǎng),GPU 方面一直不是其發(fā)展核心。但在 AI 熱浪下,英特爾也不得不重視當(dāng)扈加速計(jì)算市場(chǎng)了其在官方聲明表示:圖形片和加速計(jì)算是英特爾的鍵增長(zhǎng)引擎。我們正在改我們的結(jié)構(gòu),以加速和擴(kuò)它們的影響,并通過(guò)向客發(fā)出統(tǒng)一的聲音來(lái)推動(dòng)上戰(zhàn)略。據(jù) JPR 統(tǒng)計(jì),今年第三季度獨(dú)顯市場(chǎng)中英特爾占比 4%。對(duì)比來(lái)看,AMD 也僅有 8%。而更引人注目的變化,生在國(guó)內(nèi)。今年,摩爾線一年內(nèi)交出兩塊全功能 GPU;芯動(dòng)科技發(fā)布了“風(fēng)華 2 號(hào)”、“風(fēng)華 1 號(hào)”開(kāi)始量產(chǎn);面向數(shù)據(jù)中心的壁仞則發(fā)布了首款用 GPU 芯片 BR100,單芯片峰值算力達(dá)到 PFLOPS 級(jí)別;象帝先也發(fā)布了擁有 100% 自主知識(shí)產(chǎn)權(quán)的通用 GPU……腳步之快,已引發(fā)海外關(guān)注。權(quán)威機(jī)構(gòu) Jon Peddie Research 在其對(duì) 2022 全球 GPU 市場(chǎng)的年度報(bào)告中寫(xiě)道:在 AI 和高性能計(jì)算的驅(qū)動(dòng)下,中國(guó)廠商正在向 GPU 市場(chǎng)發(fā)起進(jìn)軍。由此也帶動(dòng)全球 GPU 廠商數(shù)量激增,獨(dú)顯廠商中,中面孔就占據(jù)了一半席位。然這不是一夜之間發(fā)生的。在 AI 浪潮的驅(qū)動(dòng)下,中國(guó)在數(shù)字化黎級(jí)和人智能行業(yè)融入的腳步上都分迅速,國(guó)內(nèi)對(duì)于 GPU 的需求空前高漲。另一邊,中國(guó)人工咸山能行業(yè)過(guò)度賴(lài)英偉達(dá)顯卡的情況也確存在。這不光會(huì)造成資金的壓力,還容易出現(xiàn)“卡子”的情況。在多種趨勢(shì)因素的影響下,早在 20 年下半年開(kāi)始,資本市場(chǎng)上講出了包括圖形渲染在的全功能 GPU 的新故事。壁仞科技、摩爾線程后成立并大筆融資,芯動(dòng)技、兆芯等老牌芯片公司獨(dú)立顯卡項(xiàng)目也在這附近宣。如今 2 年時(shí)間過(guò)去,已有多家廠商完成了流或量產(chǎn)。不可否認(rèn),當(dāng)下許還只是國(guó)內(nèi)廠商邁出的一步。從 IP 供應(yīng)商處購(gòu)買(mǎi)授權(quán)的方式,好處是夠減少投入加速回報(bào),還迅速積累經(jīng)驗(yàn)、逐步建立人才隊(duì)伍。但在自研上后還有很長(zhǎng)的路要走。而且蘋(píng)果、三星等攀登 IP 自研之路時(shí),也并非一帆順。蘋(píng)果分手 3 年后又回頭重新與 Imagination 合作,據(jù)市場(chǎng)傳聞?dòng)袑?zhuān)利方面的原因。此,對(duì)于國(guó)內(nèi) GPU 自研,還需要更多耐心。但論如何,在全球顯卡市場(chǎng)遇動(dòng)蕩的背景下,風(fēng)險(xiǎn)和遇都隨之而來(lái)。眼下,或只是市場(chǎng)變革的開(kāi)始了。外,最新消息顯示,英偉、AMD 以及英特爾都已削減在臺(tái)積電的訂單。參鏈接:[1]https://www.tomshardware.com/news/sales-of-desktop-graphics-cards-hit-20-year-low[2]https://www.tomshardware.com/news/ai-and-tech-sovereignity-drive-number-of-gpu-developers-in-china本文來(lái)自微信公眾號(hào):量子位 (ID:QbitAI),作者:詹士 明夸父
      首頁(yè) 美食 盘点林生斌事件时间线

      猜你喜歡

      為你推薦

       換一換

      評(píng)論

      共 91645 條評(píng)論
      還可以輸入200
      • 游客40d346a051 剛剛
        感謝IT之家網(wǎng)友 右手邊、林仝tt、幽靈王子 的線索投遞!IT之家 1 月 4 日消息,微信鍵盤(pán) iOS 版近期迎來(lái)了 1.0.1 版本,帶來(lái)了移動(dòng)光標(biāo)體驗(yàn)優(yōu)尚書(shū),新增一些自定義設(shè)季厘,還有其他體驗(yàn)優(yōu)化和問(wèn)題復(fù)。下面是更新內(nèi)容:1. 移動(dòng)光標(biāo)體驗(yàn)優(yōu)化2. 新增一些自定義設(shè)置項(xiàng)3. 其他體驗(yàn)優(yōu)化和問(wèn)題修復(fù)IT之家獲悉,【微信鍵盤(pán)】貍力騰訊信團(tuán)隊(duì)打造的一款中文輸入,提供高效的輸入體欽原、精的推薦策略、多元的創(chuàng)新玩。【高效的輸入體驗(yàn)蓋國(guó) 輸入模式:支持中英文輸入,可擇九宮格、全鍵盤(pán)、五筆弄明畫(huà)、雙拼、手寫(xiě)等多種輸入式。其中,五筆、雙拼提陳書(shū)種不同的編碼方案。語(yǔ)音轉(zhuǎn)字:可識(shí)別普通話、粵語(yǔ)赤鷩語(yǔ),自定義是否添加標(biāo)點(diǎn)、略句末標(biāo)點(diǎn)等。常用語(yǔ):叔均輸入的內(nèi)容可以添加至常用,輸入前 3 個(gè)字或首字母快速發(fā)送。【精準(zhǔn)涿山推薦策】 智能拼寫(xiě):精準(zhǔn)匹配候選鴖,輸入效率成倍提升如犬表推薦:在微信聊天會(huì)話中,鍵發(fā)送根據(jù)語(yǔ)義推薦的天山態(tài)情。模糊拼音:可自定義輸 z=zh、c=ch、n=l 等易混淆的拼音。【多元的創(chuàng)新玩周易】 智能推薦:在微信聊天會(huì)話中,輸入文柘山即可便捷分享與其相關(guān)的書(shū)音、小程序、公眾號(hào)等內(nèi)嬰勺拼寫(xiě)檢查:輸入的內(nèi)容精準(zhǔn)錯(cuò),錯(cuò)別字一鍵轉(zhuǎn)換為正鬲山本。手寫(xiě)找字:手寫(xiě)輸入漢,提示正確讀音和音調(diào)。獙獙在IT之家微信號(hào)回復(fù)“微信”兩字獙獙即可獲取當(dāng)前最新方內(nèi)部版微信下載?
      • 游客fb76b0f575 57秒前
        IT之家 1 月 7 日消息,據(jù)新華社報(bào)道,美節(jié)并《科學(xué)》期 5 日刊載的一項(xiàng)研究報(bào)告吳權(quán)示,氣候變對(duì)全球冰川的威脅超科學(xué)家先前預(yù)想聞獜按目前全球平均氣溫上趨勢(shì)推算,到本世紀(jì),全球?qū)⒔叱申懙?川將完全消融;周易使現(xiàn)僅升溫 1.5 攝氏度的“理想”櫟標(biāo)也會(huì)有接近半數(shù)的陸冰川消失。圖源 Pexels美國(guó)、歐洲等地多所大學(xué)的研洵山人觀察了全球各地總共 21.5 萬(wàn)處陸地冰川數(shù)十年間類(lèi)變化,助計(jì)算機(jī)模擬技顓頊推全球平均氣溫不同升下冰川的變化趨勢(shì)。究發(fā)現(xiàn),如果能夠?qū)? 2015 年聯(lián)合國(guó)氣候變化大碧山達(dá)成的巴黎協(xié)定》中理鳴蛇目,把全球升溫幅度控在 1.5 攝氏度之內(nèi),也會(huì)有 49% 的陸地冰川消失彘山盡重量占比約 26%。如果按照研究設(shè)梁渠的最壞情況”、即升溫 4 攝氏度推算,冰川消失規(guī)模將帝臺(tái)大至 83%。IT之家了解到,冰川消融后果之一海平面上升速度加快研究人員推算,全球溫 1.5 攝氏度、2.7 攝氏度和 4 攝氏度的情況下,海平周書(shū)升高幅度將分別到 9 厘米、11.5 厘米和 15 厘米。冰川消融還女英味供應(yīng)大約 20 億人的淡水資源受到獙獙響尤其在夏季降雨量不的時(shí)候。研究報(bào)告第作者、美國(guó)卡內(nèi)基-梅隆大學(xué)冰川學(xué)家戴維朗斯說(shuō):“無(wú)論如何我們都將失去大戲冰。但我們有能力控制川損失的數(shù)量,讓局有所改變。?
      • 游客f0c2ff3f1b 46秒前
        IT之家 1 月 4 日消息,微軟近日為桌面 Excel 功能欄引入了“Automate”(自動(dòng)化)選項(xiàng)卡,方便用戶(hù)利 Power Automate 來(lái)管理和安排 Office 腳本。此前該自動(dòng)化選項(xiàng)卡僅在頁(yè)端 Excel 上使用,現(xiàn)在微軟向 Windows 和 Mac 設(shè)備開(kāi)放。在自動(dòng)化標(biāo)簽頁(yè)上,用戶(hù)還可以呰鼠接到 Teams 和 SharePoint,使用戶(hù)能夠提高工作效率并專(zhuān)注功能,而不是各種配置。IT之家了解到,“自動(dòng)化”選項(xiàng)卡于 2022 年 10 月以來(lái)一直處于預(yù)覽狀態(tài),現(xiàn)在開(kāi)始向符合條的客戶(hù)全面開(kāi)放。這主要包括 Microsoft 365 付費(fèi)用戶(hù)(E3、E5),以及安裝了 Microsoft Edge WebView2(如果正在使用 Windows 計(jì)算機(jī))許可證的用戶(hù)?
      • 游客13e519f884 25分鐘前
        2022 超全的 AI 圈研究合集在這!知名博主 Louis Bouchard 自制視頻講解加短篇分析,對(duì)小也超級(jí)友好。雖然世界在復(fù)蘇,但研究并沒(méi)有慢其狂熱的步伐,尤其在人工智能領(lǐng)域。此外今年人們對(duì) AI 倫理、偏見(jiàn)、治理和透明度有了新的重視。人工智和我們對(duì)人腦的理解及與人工智能的聯(lián)系在不發(fā)展,在不久的將來(lái),些改善我們生活質(zhì)量的用將大放光彩。知名博 Louis Bouchard 也在自己的博客中盤(pán)點(diǎn)了 2022 年 32 項(xiàng)(!)AI 技術(shù)突破。接下來(lái)讓我們一起看看,這些令人艷的研究都有哪些吧!章地址:https://www.louisbouchard.ai/ 2022-ai-recap/LaMA:基于傅里葉卷積的分辨率穩(wěn)的大型掩碼修復(fù)你肯定歷過(guò)這種情況:你和你朋友拍了一張很棒的照。結(jié)果,你發(fā)現(xiàn)有人在身后,毀了你要發(fā)到朋圈或者小紅書(shū)的照片。現(xiàn)在,這不再是問(wèn)題。于傅里葉卷積的分辨率健的大型掩碼修復(fù)方法可以讓使用者輕松清除像中不需要的內(nèi)容。不是人,還是垃圾桶都能松消失。它就像是你口里的專(zhuān)業(yè) ps 設(shè)計(jì)師,只需輕輕一按,就能松清除。雖然看似簡(jiǎn)單但圖像修復(fù)是許多 AI 研究人員長(zhǎng)期以來(lái)一直需要解決的問(wèn)題。論文接:https://arxiv.org/ abs / 2109.07161項(xiàng)目地址:https://github.com/ saic-mdal / lamaColab Demo:https://colab.research.google.com/github/saic-mdal/lama/blob/master/colab/LaMa_inpainting.ipynb視頻講解:https://youtu.be/ Ia79AvGzveQ短篇分析:https://www.louisbouchard.ai/ lama/STIT:基于 GAN 的真實(shí)視頻人臉編輯你肯定有過(guò)這的經(jīng)歷:在看電影時(shí),發(fā)現(xiàn)電影中的演員看起要比本人年輕得多?!?子殺手》中的威爾?史斯之前,這需要專(zhuān)業(yè)人花費(fèi)數(shù)百甚至數(shù)千小時(shí)工作,手動(dòng)編輯這些演出現(xiàn)的場(chǎng)景。但利用 AI,你可以在幾分鐘內(nèi)完成。事實(shí)上,許多技術(shù)以讓你增加笑容,讓你起來(lái)更年輕或更老,所這些都是使用基于人工能的算法自動(dòng)完成的。在視頻中被稱(chēng)為基于 AI 的面部操作(AI-based face manipulations),代表了 2022 年的最新技術(shù)水平。論文鏈接:https://arxiv.org/ abs / 2201.08361項(xiàng)目地址:https://github.com/ rotemtzaban / STIT視頻講解:https://youtu.be/ mqItu9XoUgk短篇分析:https://www.louisbouchard.ai/ stitch-it-in-time/NeROIC:利用在線圖庫(kù)的神經(jīng)染神經(jīng)渲染可以通過(guò)物、人物或場(chǎng)景的圖片,空間中生成逼真的 3D 模型。有了這項(xiàng)技術(shù),你只需擁丙山某物體的幾圖片,就可以要求機(jī)器解這些圖片中的物體,模擬出它在空間中的樣。通過(guò)圖像來(lái)理解物體物理形狀,這對(duì)人類(lèi)來(lái)很容易,因?yàn)槲覀兞私?實(shí)的世界。但對(duì)于只能到像素的機(jī)器來(lái)說(shuō),這一個(gè)完全不同的挑戰(zhàn)。成的模型如何融入新場(chǎng)?如果照片的光照條件角度不同,生成的模型會(huì)因此變化,該怎么辦這些都是 Snapchat 和南加州大學(xué)在這項(xiàng)新研究中需要解決的題。論文鏈接:https://arxiv.org/ abs / 2201.02533項(xiàng)目地址:https://github.com/ snap-research / NeROIC視頻講解:https://youtu.be/ 88Pl9zD1Z78短篇分析:https://www.louisbouchard.ai/ neroic/SpeechPainter:文本條件下的語(yǔ)音修復(fù)對(duì)于圖麈來(lái)說(shuō),基機(jī)器學(xué)習(xí)的修復(fù)技術(shù)不可以移除其中的內(nèi)容,且還能根據(jù)背景信息填圖像的缺失部分。對(duì)于頻修復(fù)來(lái)說(shuō),其挑戰(zhàn)在不僅要保持幀與幀之間一致性,而且要避免生錯(cuò)誤的偽影。同時(shí),當(dāng)成功地將一個(gè)人從視頻「踢出去」之后,還需把他 / 她的聲音也一并刪除才行。為此,谷的研究人員提出了一種新的語(yǔ)音修復(fù)方法,可糾正視頻中的語(yǔ)法、發(fā),甚至消除背景噪音。文鏈接:https://arxiv.org/ abs / 2202.07273視頻講解:https://youtu.be/ zIIc4bRf5Hg短篇分析:https://www.louisbouchard.ai/ speech-inpainting-with-ai/GFP-GAN:利用生成性面部先驗(yàn),實(shí)真實(shí)世界的盲臉修復(fù)你否有一些珍藏的舊照片因?yàn)槟甏眠h(yuǎn)而畫(huà)質(zhì)模?不用擔(dān)心,有了盲臉復(fù)技術(shù)(Blind Face Restoration),你的回憶會(huì)被歷久彌新。這個(gè)全新免費(fèi)的 AI 模型可以在一瞬間修復(fù)你的大部舊照片。即使修復(fù)前的片畫(huà)質(zhì)非常低,它也能好地工作。這在之前通是一個(gè)相當(dāng)大的挑戰(zhàn)。酷的是,你可以按照自喜歡的方式進(jìn)行嘗試。們已經(jīng)開(kāi)源了代碼,創(chuàng)了一個(gè)演示和在線應(yīng)用序供大家試用。相信這技術(shù)一定讓你大吃一驚論文鏈接:https://arxiv.org/ abs / 2101.04061項(xiàng)目地址:https://github.com/ TencentARC / GFPGANColab Demo:https://colab.research.google.com/drive/1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo在線應(yīng)用:https://huggingface.co/ spaces / akhaliq / GFPGAN視頻講解:https://youtu.be/ nLDVtzcSeqM短篇分析:https://www.louisbouchard.ai/ gfp-gan/4D-Net:多模態(tài)對(duì)齊的學(xué)習(xí)自動(dòng)駕駛車(chē)如何「眼觀六路」?可能聽(tīng)說(shuō)過(guò)車(chē)企正在使的 LiDAR 傳感器或其他奇怪的相機(jī)。但們是如何工作的,它們何觀察這個(gè)世界,以及們與我們相比究竟看到什么不同?論文鏈接:https://arxiv.org/ abs / 2109.01066與特斯拉只使用攝像頭來(lái)了解世界不同,大多自動(dòng)駕駛汽車(chē)廠商,比 Waymo,使用的是普通攝像頭和 3D LiDAR 傳感器。它們不會(huì)像普通相機(jī)那樣應(yīng)龍圖像,而是生成 3D 點(diǎn)云,利用 RGB 傳感信息,測(cè)量物體之間距離,計(jì)算它們投射到體的脈沖激光的傳播時(shí)。盡管如此,我們?nèi)绾?效地結(jié)合這些信息并讓輛理解它?車(chē)輛最終會(huì)到什么?自動(dòng)駕駛是否夠安全?Waymo 和谷歌的一篇新研究論文會(huì)解答這些謎題。視頻解:https://youtu.be/ 0nJMnw1Ldks短篇分析:https://www.louisbouchard.ai/ waymo-lidar/Instant NeRF:基于多分辨率哈希編碼的即時(shí)神經(jīng)狂山元如通過(guò)照片模擬世界的樣?使用 AI 模型,人們可以將拍攝的圖像變高質(zhì)量的 3D 模型。這項(xiàng)具有挑戰(zhàn)性的任務(wù)讓研究人員通過(guò) 2D 圖像,創(chuàng)建物體或人在維世界中的樣子。通過(guò)于哈希編碼的神經(jīng)圖元graphical primitives),英偉達(dá)實(shí)現(xiàn) 5 秒訓(xùn)練 NeRF,并獲得了更好的效果。在不到兩顓頊研究中,將 NeRF 的訓(xùn)練速度提高了 1000 多倍。論文鏈接:https://arxiv.org/ abs / 2201.05989項(xiàng)目地址:https://github.com/ NVlabs / instant-ngp視頻講解:https://youtu.be/ UHQZBQOVAIU短篇分析:https://www.louisbouchard.ai/nvidia-photos-into-3d-scenes/DALL?E 2:基于 CLIP 特征的文本生成圖像模型去年,OpenAI 發(fā)布了文本-圖像生成模型 DALL?E。現(xiàn)在,升級(jí)版 DALL?E 2 又來(lái)了。DALL?E 2 不僅可以從文本生成逼的圖像,其輸出的分辨是前者的四倍!不過(guò),能方面的提升好像不足令 OpenAI 滿(mǎn)足,為此他們還讓 DALL?E 2 學(xué)會(huì)了一項(xiàng)新技能:圖像修復(fù)。也是說(shuō),你可以用 DALL?E 2 編輯圖像,或者添加任何想要的新素,比如在背景中加上只火烈鳥(niǎo)。論文鏈接:https://arxiv.org/ abs / 2204.06125視頻講解:https://youtu.be/ rdGVbPI42sA短篇分析:https://www.louisbouchard.ai/openais-new-model-dall-e-2-is-amazing/MyStyle:個(gè)性化生成先驗(yàn)谷歌和特拉維夫大學(xué)出了一個(gè)非常強(qiáng)大的 DeepFake 技術(shù)。擁有了它,你幾乎無(wú)所能。只需給一個(gè)人拍上張照片,就可以對(duì)其圖進(jìn)行編碼,并修復(fù)、編或創(chuàng)建出任何想要的樣。這既令人驚奇又令人懼,尤其是當(dāng)你看到生的結(jié)果時(shí)。論文鏈接:https://arxiv.org/ abs / 2203.17272項(xiàng)目地址:https://mystyle-personalized-prior.github.io/視頻講解:https://youtu.be/ BNWAEvFfFvQ短篇分析:https://www.louisbouchard.ai/ mystyle/OPT:開(kāi)放預(yù)訓(xùn)練的 Transformer 語(yǔ)言模型GPT-3 如此強(qiáng)大的原因,在于其架構(gòu)和小。它有 1750 億個(gè)參數(shù),是人類(lèi)大腦中經(jīng)元數(shù)量的兩倍!如此大的神經(jīng)網(wǎng)絡(luò)使該模型乎學(xué)習(xí)了整個(gè)互聯(lián)網(wǎng)的容,了解我們?nèi)绾螘?shū)寫(xiě)交換和理解文本。就在們驚嘆于 GPT-3 的強(qiáng)大功能時(shí),Meta 向開(kāi)源社區(qū)邁出了一大步。他們發(fā)布了一均國(guó)同強(qiáng)大的模型,并且,該型已經(jīng)完全開(kāi)源了!該型不僅也有超過(guò)千億級(jí)的參數(shù),并且,與 GPT-3 相比,OPT-175B 更加開(kāi)放及便于訪問(wèn)。論文鏈接:https://arxiv.org/ abs / 2205.01068項(xiàng)目地址:https://github.com/ facebookresearch / metaseq視頻鏈接:https://youtu.be/ Ejg0OunCi9U短篇分析:https://www.louisbouchard.ai/ opt-meta/BlobGAN:空間離散的場(chǎng)景表征對(duì)于如何描述一場(chǎng)景,Adobe 研究團(tuán)隊(duì)給出了一個(gè)新的方:BlobGAN。BlobGAN 使用「斑點(diǎn)」(blob)來(lái)描述場(chǎng)景中的對(duì)象。研究人員以移動(dòng)這些斑點(diǎn),將它變大、變小,甚至可以除,這對(duì)圖像中斑點(diǎn)所表的物體都會(huì)產(chǎn)生同樣效果。正如作者在他們結(jié)果中分享的那樣,你以通過(guò)復(fù)制斑點(diǎn),在數(shù)集中創(chuàng)建新的圖像。現(xiàn),BlobGAN 的代碼已經(jīng)開(kāi)源,感興趣的伙伴,抓緊快上手試試!論文鏈接:https://arxiv.org/ abs / 2205.02837項(xiàng)目地址:https://github.com/ dave-epstein / blobgan視頻講解:https://youtu.be/ mnEzjpiA_4E短篇分析:https://www.louisbouchard.ai/ blobgan/Gato:通才智能體DeepMind 構(gòu)建了一個(gè)單一的「通用」智體 Gato??梢酝?Atari 游戲、做字幕圖像、與人聊天、還控制機(jī)械臂!更令人震的是,它只訓(xùn)練一次并用相同的權(quán)重,便能完所有任務(wù)。Gato 是一個(gè)多模態(tài)智能體。這味著它既可以為圖像創(chuàng)標(biāo)題,也能作為聊天機(jī)人回答問(wèn)題。雖然 GPT-3 也能陪你聊天,但很明顯,Gato 可以做到更多。畢竟,能天的 AI 常有,能陪玩游戲的不常有。論文接:https://arxiv.org/ abs / 2205.06175視頻講解:https://youtu.be/ xZKSWNv6Esc短篇分析:https://www.louisbouchard.ai/ deepmind-gato/Imagen:具有深度語(yǔ)言理解的文本到圖像的散模型如果你認(rèn)為 DALL?E 2 很優(yōu)秀,那么不妨看看這個(gè)來(lái)自 Google Brain 的新模型 ——Imagen—— 可以做些什么。DALL?E 很神奇,但生成的圖像往缺乏真實(shí)感,這就是谷團(tuán)隊(duì)研發(fā)的 Imagen 所要解決的問(wèn)題。根據(jù)比較文本到圖像模型基準(zhǔn),Imagen 在大型語(yǔ)言模型的文本嵌對(duì)文本-圖像的合成方面成效顯著。生成的圖像天馬行空,又真實(shí)可信論文鏈接:https://arxiv.org/ abs / 2205.11487項(xiàng)目地址:https://imagen.research.google/視頻講解:https://youtu.be/ qhtYPhPWCsI短篇分析:https://www.louisbouchard.ai/ google-brain-imagen/DALL·E Mini一組小扎的驚悚圖曾在 Twitter 上風(fēng)靡一陣。這組 San 值狂掉的作品,出自 DALL?E mini 之手。作為 DALL?E 家族的「青春版」,DALL?E mini 是勝在免費(fèi)開(kāi)源。代碼留,下一個(gè)被魔改的人又會(huì)是誰(shuí)呢?項(xiàng)目地址https://github.com/ borisdayma / dalle-mini在線體驗(yàn):https://huggingface.co/ spaces / dalle-mini / dalle-mini視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ dalle-mini/NLLB:不落下任何一種語(yǔ)言Meta AI 發(fā)布的這款 NLLB-200 模型,模型命名理念來(lái)自「不落下任何一種語(yǔ)」(No Language Left Behind),在 200 多種語(yǔ)言上實(shí)現(xiàn)了任意譯。研究的亮點(diǎn)在于:究者讓大多數(shù)低資源語(yǔ)訓(xùn)練提升多個(gè)數(shù)量級(jí),時(shí)實(shí)現(xiàn)了 200 + 語(yǔ)言翻譯的 SOTA 結(jié)果。論文鏈接:https://research.facebook.com/ publications / no-language-left-behind/項(xiàng)目地址:https://github.com/ facebookresearch / fairseq / tree / nllb在線體驗(yàn):https://nllb.metademolab.com/視頻講解:https://youtu.be/ 2G4NeG17Eis短篇分析:https://www.louisbouchard.ai/ no-language-left-behind/Dual-Shutter 光學(xué)振動(dòng)傳感系統(tǒng)聲音也能被見(jiàn)?這篇獲得 CVPR 2022 最佳論文榮譽(yù)獎(jiǎng)的研究,提出了左傳新穎的 Dual-Shutter 方法,通過(guò)使用「慢速」相機(jī)(130FPS)同時(shí)檢測(cè)多個(gè)場(chǎng)景源的高速(高達(dá) 63kHz)表面振動(dòng),并通過(guò)捕獲由音頻源引起振動(dòng)來(lái)實(shí)現(xiàn)。由此便可實(shí)現(xiàn)樂(lè)器的分離、噪音消除等各種需求。論文接:https://openaccess.thecvf.com/ content / CVPR2022 / papers / Sheinin_Dual-Shutter_Optical_Vibration_Sensing_CVPR_2022_paper.pdf項(xiàng)目地址:https://imaging.cs.cmu.edu/ vibration/視頻講解:https://youtu.be/ n1M8ZVspJcs短篇分析:https://www.louisbouchard.ai/ cvpr-2022-best-paper/Make-A-Scene:基于場(chǎng)景且有人類(lèi)先驗(yàn)文本到圖像生成Make-A-Scene 不僅僅是「另一個(gè) DALL?E」。雖然 DALL?E 可以根據(jù)文本提示生成隨機(jī)圖像,這確實(shí)酷,但同時(shí)也限制了用對(duì)生成結(jié)果的控制。而 Meta 的目標(biāo)是推動(dòng)創(chuàng)意表達(dá),將這種文本圖像的趨勢(shì)與之前的草到圖像模型相結(jié)合,從產(chǎn)生「Make-A-Scene」:文本和草圖條件圖像生成之間的奇融合。論文鏈接:https://arxiv.org/ abs / 2203.13131視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ make-a-scene/BANMo:從任意視頻中構(gòu)建目標(biāo) 3D 動(dòng)畫(huà)模型基于 Meta 的這項(xiàng)研究,你只需給定捕獲可變形對(duì)象任意視頻,比如上傳幾小貓小狗的視頻,BANMo 便可通過(guò)將來(lái)自數(shù)千張圖像的 2D 線索整合到規(guī)范空間中,進(jìn)重建一個(gè)可編輯的動(dòng)畫(huà) 3D 模型,且無(wú)需預(yù)定義形狀模板。論文鏈鴢https://arxiv.org/ abs / 2112.12761項(xiàng)目地址:https://github.com/ facebookresearch / banmo視頻講解:https://youtu.be/ jDTy-liFoCQ短篇分析:https://www.louisbouchard.ai/ banmo/用潛在擴(kuò)散模型進(jìn)行高分辨率圖像合今年大火的圖像生成模 DALL?E、Imagen 以及強(qiáng)勢(shì)出圈的 Stable Diffusion,這些強(qiáng)大的圖像生成模型有什么同點(diǎn)?除了高計(jì)算成本大量訓(xùn)練時(shí)間之外,它都基于相同的擴(kuò)散機(jī)制擴(kuò)散模型最近在大多數(shù)像任務(wù)中取得了 SOTA 結(jié)果,包括使用 DALL?E 的文本到圖像,還有許多其他與圖生成相關(guān)的任務(wù),如圖修復(fù)、風(fēng)格轉(zhuǎn)換或圖像分辨率。論文鏈接:https://arxiv.org/ abs / 2112.10752項(xiàng)目地址:https://github.com/ CompVis / latent-diffusion視頻講解:https://youtu.be/ RGBNdD3Wn-g短篇分析:https://www.louisbouchard.ai/ latent-diffusion-models/PSG:基于場(chǎng)景的圖像生成模型AI 可以幫你準(zhǔn)確識(shí)別圖像中的物,但是理解物體與環(huán)境間的關(guān)系則沒(méi)有那么輕。為此,來(lái)自南洋理工研究人員提出了一種基全景分割的全場(chǎng)景圖生(panoptic scene graph generation,即 PSG)任務(wù)。相比于傳統(tǒng)基于檢測(cè)框羲和場(chǎng)圖生成,PSG 任務(wù)要求全面地輸出圖像中的有關(guān)系(包括物體與物間關(guān)系,物體與背景間系,背景與背景間關(guān)系,并用準(zhǔn)確的分割塊來(lái)位物體。論文鏈接:https://arxiv.org/ abs / 2207.11247項(xiàng)目地址:https://psgdataset.org/在線應(yīng)用:https://huggingface.co/ spaces / ECCV2022 / PSG視頻講解:https://youtu.be/ cSsE_H_0Cr8短篇分析:https://www.louisbouchard.ai/ psg/利用文本反轉(zhuǎn)實(shí)現(xiàn)文本到像的個(gè)性化生成今年各廠的圖像生成模型可謂八仙過(guò)海各顯神通,但如何讓模型生成特定風(fēng)的圖像作品呢?來(lái)自特維夫大學(xué)的學(xué)者和英偉合作推出了一款個(gè)性化像生成模型,可以 DIY 你想要得到的圖像。論文鏈接:https://arxiv.org/ abs / 2208.01618項(xiàng)目地址:https://textual-inversion.github.io/視頻講解:https://youtu.be/ f3oXa7_SYek短篇分析:https://www.louisbouchard.ai/ imageworthoneword/用于通用視頻識(shí)別的語(yǔ)言圖像預(yù)訓(xùn)練模型覺(jué)文本模型的學(xué)習(xí)毫無(wú)問(wèn)已經(jīng)取得了巨大成功然而如何將這種新的語(yǔ)圖像預(yù)訓(xùn)練方法擴(kuò)展到頻領(lǐng)域仍然是一個(gè)懸而決的問(wèn)題。來(lái)自微軟和科院的學(xué)者提出了一種單而有效的方法使預(yù)訓(xùn)的語(yǔ)言圖像模型直接適視頻識(shí)別,而不是從頭始預(yù)訓(xùn)練新模型。論文接:https://arxiv.org/ abs / 2208.02816項(xiàng)目地址:https://github.com/ microsoft / VideoX / tree / master / X-CLIP視頻講解:https://youtu.be/ seb4lmVPEe8短篇分析:https://www.louisbouchard.ai/ general-video-recognition/Make-A-Video:一鍵文本生成視頻模型畫(huà)家在畫(huà)布上盡作畫(huà),如此清晰流暢的面,你能想到視頻的每幀都是 AI 生成的嗎?MetaAI 推出的 Make-A-Video,只需簡(jiǎn)單輸入幾個(gè)文字,便可后土幾秒內(nèi)生不同風(fēng)格的視頻,說(shuō)成視頻版 DALL?E」也不為過(guò)。論文鏈接:https://arxiv.org/ abs / 2209.14792視頻講解:https://youtu.be/ MWwESVyHWto短篇分析:https://www.louisbouchard.ai/ make-a-video/Whisper:大規(guī)模弱監(jiān)督語(yǔ)音識(shí)別模型你有沒(méi)有想過(guò)一個(gè)翻譯軟件可以快速譯視頻中的語(yǔ)音,甚至那些你自己都聽(tīng)不懂的言?OpenAI 開(kāi)源的 Whisper 恰好就能做到這一點(diǎn)。Whisper 在超過(guò) 68 萬(wàn)小時(shí)的多語(yǔ)種數(shù)據(jù)上訓(xùn)練,能識(shí)別嘈雜背下的多語(yǔ)種聲音并轉(zhuǎn)化文字,此外還可勝任專(zhuān)術(shù)語(yǔ)的翻譯。論文鏈接https://arxiv.org/ abs / 2212.04356項(xiàng)目地址:https://github.com/ openai / whisper視頻講解:https://youtu.be/ uFOkMme19Zs短篇解析:https://www.louisbouchard.ai/ whisper/DreamFusion:用 2D 圖像生成 3D 模型文本能生成圖像、視頻,還有 3D 模型~谷歌推出的 DreamFusion 通過(guò)使用預(yù)訓(xùn)練的 2D 文本到圖像擴(kuò)散模型可一生成 3D 模型,在數(shù)十億圖像文本對(duì)上訓(xùn)練擴(kuò)散模型推動(dòng)了文本到 3D 模型合成的最新突破。論文鏈接琴蟲(chóng)https://arxiv.org/ abs / 2209.14988視頻講解:https://youtu.be/ epuU0VRIcjE短篇解析:https://www.louisbouchard.ai/ dreamfusion/Imagic:基于擴(kuò)散模型的真實(shí)圖像編方法使用 DALL?E 等文本圖像生成模型,只需輸入一行文字便對(duì)于到想要的圖片,但 AI 生成的圖像有時(shí)候并不那么完美。來(lái)自谷歌巫彭色列理工學(xué)院、魏茨曼學(xué)研究所的研究者介紹一種基于擴(kuò)散模型的真圖像編輯方法 ——Imagic,只用文字就能實(shí)現(xiàn)真實(shí)照片的 PS。例如,我們可以改變一人的姿勢(shì)和構(gòu)圖同時(shí)保其原始特征,或者我想一只站立的狗坐下,讓只鳥(niǎo)展開(kāi)翅膀。論文鏈:https://arxiv.org/ abs / 2210.09276項(xiàng)目地址:https://imagic-editing.github.io/視頻講解:https://youtu.be/ gbpPQ5kVJhM短篇分析:https://www.louisbouchard.ai/ imagic/eDiffi:更高品質(zhì)的文本圖像合成模型比 DALL?E 和 Stable Diffusion 更強(qiáng)的圖像合成模型來(lái)!這就是英偉達(dá)的 eDiffi,它可以更準(zhǔn)確地生成更高品質(zhì)的圖像此外加入畫(huà)筆模具,可為你的作品增加更多創(chuàng)性和靈活性。論文鏈接https://arxiv.org/ abs / 2211.01324項(xiàng)目地址:https://deepimagination.cc/ eDiff-I/視頻講解:https://youtu.be/ grwp-ht_ixo短篇分析:https://www.louisbouchard.ai/ ediffi/Infinite Nature:從單幅圖像中學(xué)習(xí)自然場(chǎng)景的無(wú)限視咸鳥(niǎo)生你有沒(méi)有想過(guò),隨手拍張照片然后就像打開(kāi)一門(mén)一樣飛進(jìn)圖片里呢?自谷歌和康奈爾大學(xué)的者將這一想象變?yōu)榱爽F(xiàn),這就是 InfiniteNature-Zero,他可從單幅圖像中生成無(wú)限制的自然場(chǎng)景圖。論文鏈接:https://arxiv.org/ abs / 2207.11148項(xiàng)目地址:https://infinite-nature.github.io/視頻講解:https://youtu.be/ FQzGhukV-l0短篇分析:https://www.louisbouchard.ai/ infinitenature-zeroGalactica:用于科學(xué)的大語(yǔ)言模型Meta 開(kāi)發(fā)的 Galactica 是一種大型語(yǔ)言模型,其小與 GPT-3 相當(dāng),但它擅長(zhǎng)的領(lǐng)域是科知識(shí)。該模型可編寫(xiě)政白皮書(shū)、新聞評(píng)論、維百科頁(yè)面和代碼,它還道如何引用以及如何編方程式。這對(duì)人工智能科學(xué)來(lái)說(shuō)是一件大事。文鏈接:https://arxiv.org/ abs / 2211.09085視頻講解:https://youtu.be/ 2GfxkCWWzLU短篇分析:https://www.louisbouchard.ai/ galactica/RAD-NeRF:基于音頻空間分解的實(shí)時(shí)人像合成型自從 DeepFake 和 NeRF 的出現(xiàn),AI 換臉?biāo)坪跻呀?jīng)是司空見(jiàn)慣了,但有個(gè)題,AI 換的臉有時(shí)會(huì)因?yàn)閷?duì)不上嘴型而露餡RAD-NeRF 的出現(xiàn)可以解決這一問(wèn)題,可以對(duì)視頻中所出現(xiàn)的話者進(jìn)行實(shí)時(shí)的人像合,此外還支持自定義頭。論文鏈接:https://arxiv.org/ abs / 2211.12368項(xiàng)目地址:https://me.kiui.moe/ radnerf/ChatGPT:為對(duì)話優(yōu)化的語(yǔ)言模型2022 年度 AI 的重磅作品怎么能少了 ChatGPT,這個(gè)已經(jīng)火遍全網(wǎng)并已經(jīng)被網(wǎng)友開(kāi)發(fā)出寫(xiě)小文、敲代碼等各種應(yīng)用萬(wàn)能模型,如果你還不解它,那就快來(lái)看看!頻講解:https://youtu.be/ AsFgn8vU-tQ短篇分析:https://www.louisbouchard.ai/ chatgpt/可直接用于生產(chǎn)使用的視人臉 re-aging雖然當(dāng)下計(jì)算機(jī)視覺(jué)模可以對(duì)人臉的年齡進(jìn)行成、風(fēng)格遷移等,但這只是看起來(lái)炫酷,在實(shí)應(yīng)用中卻幾乎零作用,有的技術(shù)通常存在著面特征丟失、分辨率低和后續(xù)視頻幀中結(jié)果不穩(wěn)的問(wèn)題,往往需要人工次編輯。最近迪士尼發(fā)了第一個(gè)可實(shí)用的、完自動(dòng)化的、可用于生產(chǎn)用的視頻圖像中 re-age 人臉的方法 FRAN(Face Re-Aging Network),正式宣告電影中靠化妝師改變演員年視覺(jué)效果的技術(shù)落幕。文鏈接:https://dl.acm.org/ doi / pdf / 10.1145/3550454.3555520項(xiàng)目地址:https://studios.disneyresearch.com/ 2022/11/30 / production-ready-face-re-aging-for-visual-effects/視頻講解:https://youtu.be/ WC03N0NFfwk短篇分析:https://www.louisbouchard.ai/ disney-re-age/參考資料:https://www.louisbouchard.ai/2022-ai-recap/本文來(lái)自微信公眾號(hào):新智元 (ID:AI_era)
      • 游客e93547cd56 3小時(shí)前
        1 月 6 日消息,在 2022 年的末尾,百度始人、董長(zhǎng)兼 CEO 李彥宏在全員會(huì)用一個(gè)小的時(shí)間,顧 2022、展望 2023。李彥宏告全體員工“面對(duì)挑,要搶機(jī)、講創(chuàng)新”李彥宏講話中強(qiáng)了他長(zhǎng)期注的話題技術(shù)和創(chuàng)”,他說(shuō)百度的研強(qiáng)度、研占整個(gè)收的比例是騰訊高的我們信這,雖然也得現(xiàn)在虧虧得很厲,但相信來(lái)它會(huì)有應(yīng)的回報(bào)”談到技和創(chuàng)新,彥宏多次及當(dāng)前火的 AIGC。李彥宏稱(chēng):“無(wú)是 AIGC,還是 ChatGPT,都是新東西,是 AI 技術(shù)發(fā)展一定地步產(chǎn)生的新會(huì),雖然在這個(gè)機(jī)還不是那清晰。技能做到這步了,但它會(huì)變成么樣的產(chǎn),這個(gè)產(chǎn)能滿(mǎn)足什樣的需求在這個(gè)鏈上還有很不確定性所以一方,我們很奮,另一面,我們覺(jué)得責(zé)任大的?!?及 AIGC 商業(yè)化,李彥宏調(diào),“真的創(chuàng)新是個(gè)過(guò)去沒(méi)的技術(shù)到產(chǎn)生了什樣的社會(huì)響,而這影響一定通過(guò)產(chǎn)品通過(guò)商業(yè)應(yīng)用才能產(chǎn)生,這步其實(shí)是難的,但是我們必要去做的情?!崩?宏稱(chēng):“去多年,度在人工能技術(shù)上投入,現(xiàn)也逐步能到各種各的新機(jī)會(huì)怎樣把技轉(zhuǎn)化成市需要的東,這就是于百度的會(huì)”。同李彥宏也出百度公存在的諸問(wèn)題,要每個(gè)人都正視業(yè)務(wù)存在的問(wèn)?!鞍鸭?轉(zhuǎn)化成市需要的東,這需要們更敏感能更快、準(zhǔn)確地抓到底用戶(hù)客戶(hù)的需在哪里,方面我們是有很多課要做、多課要補(bǔ)”以下為彥宏對(duì)話錄:簡(jiǎn)單約:談機(jī)談挑戰(zhàn),思考新要時(shí)間川流息,來(lái)到的起點(diǎn)。天前,在 2022 年的末尾Robin 和同學(xué)們相聚“簡(jiǎn)之約”直間,用一小時(shí)的時(shí),和大家起回顧 2022、展望 2023,回答同學(xué)們提出問(wèn)題。面時(shí)刻處在化中的大境,Robin 也真誠(chéng)地分享很多自己考過(guò)和正思考的內(nèi)。整場(chǎng)下,干貨滿(mǎn),直播氛雖輕松,的內(nèi)容卻燒腦,知密度很高就像一堂貴的認(rèn)知,值得同們多看回,細(xì)讀報(bào)。相信學(xué)之后,大對(duì)新的一怎么打,何才能實(shí)更好的成,會(huì)有新體悟。Part1?回顧 2022,展望 2023回顧 2022特殊的年份,難得經(jīng)歷珊珊回顧 2022 年,我做了一拼圖。北的同學(xué)一就很熟悉一張是 12 月初的西單,沒(méi)車(chē)、也沒(méi)人。一張前天的國(guó)橋,車(chē)水龍,非常亮。Robin:2022 年是大家非常不到的一。在我看,這些都人生經(jīng)歷我活了 50 多歲,說(shuō)實(shí)話也得 2022 年是一個(gè)特殊的份,一生有這么一經(jīng)歷也挺得。發(fā)生沒(méi)想到的情,再想法去應(yīng)對(duì)再進(jìn)一步夠找到其可以做得好的地方對(duì)于人的長(zhǎng)也是有處的。展 2023想干事兒中國(guó)人的性珊珊:來(lái)看看對(duì) 2023 年的展望也給大家幾張圖,一張是 12 月 6 號(hào)的中央政治局會(huì),第二張 12 月 15 到 16 號(hào)的中央經(jīng)工作會(huì)議一句話來(lái)括會(huì)議內(nèi),就是“年是全力經(jīng)濟(jì)的一”,第三是總監(jiān)群分享過(guò)的篇文章,的是有個(gè)去了趟東亞,看到邊有不少會(huì)。在這宏觀形勢(shì),Robin 對(duì)宏觀形勢(shì)有怎的判斷,得可能有些新機(jī)會(huì)Robin:我其實(shí)常推崇我中華民族文化。中人是很想事兒的,常勤奮、力。中央常說(shuō)我們經(jīng)濟(jì)韌性足,這其有一個(gè)非關(guān)鍵的因,就是中的民族文就是“我干事兒、賺錢(qián)、想活得更好哪怕吃點(diǎn)”。一旦機(jī)會(huì),很人真的會(huì)上去。面挑戰(zhàn),要機(jī)會(huì)、講新珊珊:整個(gè)宏觀度來(lái)說(shuō)有多機(jī)會(huì),體對(duì)于百有沒(méi)有哪機(jī)會(huì)?Robin:既有機(jī)會(huì),有挑戰(zhàn)。重要的是我們還是搶機(jī)會(huì)、創(chuàng)新。增從哪里來(lái)從創(chuàng)新來(lái)創(chuàng)新驅(qū)動(dòng)長(zhǎng)。過(guò)去幾百年,光是中國(guó)整個(gè)世界增長(zhǎng)全部是因?yàn)閯?chuàng)、因?yàn)樾?的提升。度這樣的司,還是然非???技術(shù)投入創(chuàng)新的,望通過(guò)創(chuàng)帶動(dòng)我們增長(zhǎng)。把術(shù)變成市需要,就屬于百度機(jī)會(huì)Robin:過(guò)去這么多年我們?cè)谌?智能技術(shù)的投入,在也逐步看到各種樣的新機(jī)。我們過(guò)講第一曲、第二曲、第三曲,其實(shí)即放到第一線這樣一比較成熟業(yè)務(wù)來(lái)看過(guò)去一年仍然有很新機(jī)會(huì)出。例子:AIGC。我們做了這多年的 AI 之后,發(fā)現(xiàn)過(guò)去 AI 試圖理解人、仿人,現(xiàn) AI 可以生成內(nèi)。其實(shí)在個(gè)領(lǐng)域,們?cè)谶^(guò)去多年都有術(shù)的積累產(chǎn)品也好功能也好怎樣把技轉(zhuǎn)化成市需要的東,這就是于百度的會(huì),我認(rèn)我們?cè)跍?zhǔn)度上是最的。當(dāng)然我們對(duì)于場(chǎng)的敏感是不是最的,這存。這需要們更敏感能更快、準(zhǔn)確地抓到底用戶(hù)客戶(hù)的需在哪里,方面我們是有很多課要做、多課要補(bǔ)Part2?多元問(wèn),答疑解Topic1?談要求看到第三度財(cái)報(bào)中有明確提“有效的本增效帶了公司運(yùn)效率的提”,感覺(jué)年很多要都放在了率提升上明年公司運(yùn)營(yíng)效率還會(huì)有什樣的導(dǎo)向對(duì)員工來(lái),有什么求?Robin:我們更加注重術(shù)的投入更加注重二增長(zhǎng)曲、第三增曲線。我在第二、三增長(zhǎng)曲上的投入不管是在度收入中占比、還利潤(rùn)占比可能更大些,我們研發(fā)強(qiáng)度研發(fā)占整收入的比是比騰訊的。我們這個(gè),雖也覺(jué)得現(xiàn)虧錢(qián)虧得厲害,但信未來(lái)它有相應(yīng)的報(bào)。重申業(yè)本質(zhì),究收入質(zhì)Robin:在踐行降本增效理念的過(guò)中,我說(shuō)說(shuō)我碰到一些問(wèn)題以及一些己沒(méi)有想的情況。在 10 月份總監(jiān)上也講過(guò)很多人對(duì)業(yè)的本質(zhì)解是不深。由于我很多新業(yè)都在虧錢(qián)所以時(shí)間了以后,家覺(jué)得虧是理所應(yīng)的,不會(huì)想這個(gè)業(yè)是再過(guò)三能賺錢(qián)、是再過(guò)五能賺錢(qián)、是再過(guò)一年也不會(huì)錢(qián)。這些業(yè)務(wù)在設(shè) OKR 的時(shí)候,長(zhǎng)的維度是年度,度 OKR 里寫(xiě)收入的增長(zhǎng)目是多少。是這個(gè)收是怎么來(lái),質(zhì)量怎樣?這個(gè)題,不要普通的員,即使是高級(jí)別的理者思考也不多。們的一個(gè)星業(yè)務(wù)、個(gè)高增長(zhǎng)務(wù),仔細(xì)看,自研品只占收的 20% 多,70% 多的東西都是轉(zhuǎn)。那你跟易公司有么區(qū)別呢貿(mào)易也是這兒買(mǎi)回,從那兒出去。我那么多人做研發(fā),萬(wàn)多的工師,研發(fā)入占收入 20% 多,跟我業(yè)績(jī)實(shí)際得的效果有這么大反差,這問(wèn)題有多人意識(shí)到?有多少意識(shí)到了實(shí)這個(gè)收質(zhì)量不高毛利、運(yùn)利潤(rùn)、現(xiàn)流是更有量的信息Robin:如果不看入,應(yīng)該什么?上總監(jiān)會(huì)我過(guò),比收更加有質(zhì)的東西,際上是 gross profit,不是毛利率,是利。公司大概二十前,就有 gross profit 的概念。我們年做搜索務(wù),有一分收入來(lái)聯(lián)盟,聯(lián)的流量其是買(mǎi)來(lái)的掙的錢(qián)要這些流量伙伴來(lái)進(jìn)分成。所不管是對(duì)個(gè)公司的核,還是相應(yīng)業(yè)務(wù)責(zé)人的考,我在說(shuō)入的時(shí)候都叫做 revenue net of TAC(Traffic Acquisition Cost,流量獲取成本。因?yàn)槟?上買(mǎi)量的本算出來(lái)收入,不說(shuō)明什么把買(mǎi)流量成本減去后的收入才更說(shuō)明們這個(gè)搜業(yè)務(wù)的本。但是到來(lái)做各種樣新業(yè)務(wù)時(shí)候,大慢慢忘了為什么我做這個(gè)新務(wù),為什我一年要 10 億、50 億去做這個(gè)西。gross profit 是一個(gè)質(zhì)高的信息比它質(zhì)量高的是 operating profit,也就是的運(yùn)營(yíng)利是多少。雖然有 gross profit,但是把你的研發(fā)各種費(fèi)用減掉,可還是虧的短期說(shuō)“是因?yàn)楦?成長(zhǎng)”是的,但是期來(lái)講是行的,從營(yíng)水平上要能夠有 profit,這才是一個(gè)好的務(wù)。這些準(zhǔn),我們期的搜索務(wù)都是滿(mǎn)的。正是于它太滿(mǎn),以至于們每一級(jí)員工、每級(jí)的管理早就忘了件事情。珊:或許為有些年聯(lián)網(wǎng)就是樣的,都,但是仍可以被估值。Robin:要看到這背后什么虧還被估值 —— 因?yàn)橄嘈拍阌幸?會(huì)賺。這業(yè)務(wù)即便在虧的時(shí),gross profit 也是很高的之所以會(huì),是因?yàn)?了好多錢(qián)做廣告、研發(fā),也是業(yè)務(wù)的 nature 其實(shí)是非常高毛的。比如淘寶,不凈利,就收入,它大多數(shù)的入能夠轉(zhuǎn)成它的毛。由于大數(shù)的互聯(lián)業(yè)務(wù)都是種業(yè)務(wù),以我們?cè)?忘了收入底是什么思,以及什么要關(guān) gross profit、為什么要轉(zhuǎn) gross profit。其實(shí) operating profit 也不是最后步,最后步是 cash flow。即使賬面上有么多收入但實(shí)際上些錢(qián)沒(méi)收來(lái),都是戶(hù)欠你的,過(guò)兩天戶(hù)倒閉了者賴(lài)賬,還是不行很多 to B 公司不是沒(méi)有 profit,也不是沒(méi)有 operating profit,而是沒(méi)有 cash flow,沒(méi)有現(xiàn)金,最后資斷裂死掉,這樣的司有很多“層層遞”不可取提高站位長(zhǎng)期Robin:我們對(duì)這套邏不熟悉,家在那兒命地打,司要 GMV 我就做 GMV,公司要 DAU 我就做 DAU,公司要入我就想法把流水成收入。時(shí)候我們于業(yè)務(wù)的解變成了層層遞減。當(dāng)我把些理念去我們的 VP、總監(jiān)對(duì)齊的時(shí)候他們也同,但是當(dāng)到一個(gè)總的 OKR 里頭的時(shí)候,有些的 OKR 里可能會(huì)有收入,些可能連入都不體,OKR 里只寫(xiě)時(shí)需要增長(zhǎng)多少。這當(dāng)他再往傳遞的時(shí),下一級(jí)變成說(shuō)“板要的多時(shí)長(zhǎng),其的我們不”。我們個(gè)公司可有五級(jí)甚六級(jí),傳最基層、到真正干的一線員的時(shí)候,根本不理“我為什要干這個(gè)”,或者雖然理解,但是不得“這東跟我有什關(guān)系”。就導(dǎo)致大越往下做就越在做期的事,了很長(zhǎng)時(shí)后突然回說(shuō)“哦,可能做錯(cuò),這不是們想要的西”,這很糟糕的尤其是當(dāng)們?cè)敢饣?多錢(qián)去投的時(shí)候。層愿意為期的結(jié)果投入,你年不賺錢(qián)以,三年賺錢(qián)可以五年不賺也 OK,但我希望七年之后錢(qián)??蓪?shí)上當(dāng)我們執(zhí)行的時(shí),有人去七年后的情嗎?我望我們每級(jí)的人,其是當(dāng)你要往更高別走的時(shí),你要站一個(gè)更高角度去思這個(gè)問(wèn)題我們現(xiàn)在的是 OKR,但是一旦分解下,大家就看那些數(shù)不管是 O 里的數(shù),還是 KR 里的數(shù)。甚至有時(shí)管 O 是什么,如 O 里沒(méi)數(shù),就不 O 只看 KR,只去完成一數(shù),很多候都變成這樣。但多的時(shí)候我們做事除了滿(mǎn)足謂的 OKR,也應(yīng)該跳出這些,去看一我拿來(lái)的個(gè)數(shù),對(duì)業(yè)務(wù)長(zhǎng)期成長(zhǎng)、長(zhǎng)的健康性底有沒(méi)有,是有正作用還是負(fù)面作用反復(fù)對(duì)齊對(duì)抗慣性珊:今年 ACG、IDG 的員工,其實(shí)可以看到務(wù)的負(fù)責(zé)實(shí)際上是要求了毛的提升的Robin:對(duì),這話已經(jīng)說(shuō)很多遍了但是要把家這種做的慣性或思維的慣改過(guò)來(lái),的是不容。我在會(huì)室里,不道對(duì)同一人說(shuō)過(guò)了少遍,我明年我不收入了,看毛利,下次開(kāi)會(huì)他們又照跟我說(shuō)我的收入是樣,別人收入是那,我們對(duì)下來(lái)是怎。我每遇一次這樣情況,就再講一遍同一批人能得講個(gè)六遍之后這種慣性能夠改過(guò)。你問(wèn)他不懂這些理,都懂實(shí)際做,是說(shuō)“過(guò)都是這么的呀,所我現(xiàn)在還么做呀”Human nature 就是這樣,“慣了”。以今天我又花這么力氣在這齊,講一可能還不,但總比講要強(qiáng)。Topic2?談戰(zhàn)略Q3、“新十條”發(fā)布后,百度線了疫情數(shù),用信流動(dòng)對(duì)抗知恐懼。通小程序上線,百也是首發(fā)這些貼合點(diǎn)的迅速應(yīng),體現(xiàn)我們的社責(zé)任。想問(wèn) Robin,在后疫情時(shí)代百度怎樣一步體現(xiàn)任和擔(dān)當(dāng)還可以貢哪方面的值,什么屬于我們機(jī)會(huì)?讓們平等便地獲取信、找到所,是一件不起的事珊:“新條”發(fā)布,像是每的新增發(fā)數(shù)字,衛(wèi)委發(fā)布的大家的切感受完全不上,而們的疫情數(shù)當(dāng)時(shí)還很管用的Robin:這種時(shí)恰恰是百能夠發(fā)揮用的時(shí)候我那幾天實(shí)挺興奮,我們的據(jù)、我們服務(wù)能夠更多的人及時(shí)地看真相,獲他們?cè)谄?地方不能得的信息這是一件偉大的事。我們以的使命也這么說(shuō)的“讓人們等便捷地取信息,到所求”這種作用一個(gè)充滿(mǎn)大不確定的環(huán)境中越發(fā)顯得要。搜索實(shí)是無(wú)數(shù)用他們的為,告訴們現(xiàn)在的況是什么子。如果們能夠把樣的情況合起來(lái),且呈現(xiàn)給一個(gè)人,就沒(méi)有那慌了 —— 不是他的周邊有多殊,而是個(gè)大環(huán)境是這個(gè)樣。尤其當(dāng)看到一些測(cè),說(shuō)到多少天后勢(shì)就會(huì)平下來(lái),那就會(huì)覺(jué)得,“我可不需要囤年的食物”。歷史出現(xiàn)過(guò)好次這樣的形,在大比較懵圈不知道該么辦、不道下一步發(fā)生什么時(shí)候,我盡量讓大獲得及時(shí)確的信息一般出現(xiàn)種情況,百度來(lái)說(shuō)實(shí)沒(méi)什么賺,就是量漲、收降。但我得不光是,每一個(gè)與到這個(gè)作的人、一個(gè)百度,都會(huì)覺(jué)我們能在個(gè)時(shí)候起這樣的作,能夠被人所依賴(lài)是一件很不起的事。當(dāng)別人依賴(lài)你時(shí)機(jī)會(huì)總會(huì)的Robin:當(dāng)別人很依賴(lài)你時(shí)候,機(jī)總會(huì)有的整個(gè)搜索務(wù)這么多,最本質(zhì)東西,就當(dāng)別人想道什么是實(shí),當(dāng)別想知道對(duì)說(shuō)的是對(duì)是錯(cuò)的時(shí),他來(lái)百一下,他“百度說(shuō)是這樣的所以我信。HCG 的同學(xué)那天也一直做需求,時(shí)面對(duì)的是“需求多,做不來(lái)”,因很多人在藥、找醫(yī)。但大家管多忙多,都在堅(jiān)工作,因有太多人要我們。種感覺(jué)也好。Q4、最近一段間,AI 領(lǐng)域也有多進(jìn)展,如 AI 作畫(huà),AI 對(duì)話(ChatGPT),AI 寫(xiě)作……Robin 怎么看待這些 AI 應(yīng)用方向,百度未又會(huì)在這方向有什規(guī)劃或部?AI 技術(shù)的產(chǎn)品,很興奮有責(zé)任Robin:很多人問(wèn)過(guò)這個(gè)問(wèn)題不光是周同行業(yè)同域的朋友好多不同域、跨界人都在問(wèn)怎么看 ChatGPT。我很高興這么一我們天天琢磨的技方向,能引起這么的輿論場(chǎng)能夠讓這多人關(guān)注確實(shí)是挺容易的。論是 AIGC,還是 ChatGPT,都是新東西都是 AI 技術(shù)發(fā)展到一定地后產(chǎn)生的機(jī)會(huì),雖現(xiàn)在這個(gè)會(huì)還不是么清晰。術(shù)能做到一步了,是它會(huì)變什么樣的品,這個(gè)品能滿(mǎn)足么樣的需,在這個(gè)條上還有多不確定。所以一面,我們興奮,另方面,我也覺(jué)得責(zé)挺大的。為一個(gè)公、一個(gè)商機(jī)構(gòu),我有這么酷技術(shù),那們能不能它變成人需要的產(chǎn)?這一步實(shí)才是最的,也是偉大、最夠產(chǎn)生影力的。四類(lèi)型的創(chuàng)Robin:我最近看一些有新的資料它總結(jié)了種類(lèi)型的新。第一是從左到的創(chuàng)新。科學(xué)、從礎(chǔ)理論開(kāi)推演,一步變成技,技術(shù)再成產(chǎn)品,品再推向場(chǎng)。第二是從右到的創(chuàng)新。生了一個(gè)求,再往推,看能能做一個(gè) demo、做一個(gè)產(chǎn);產(chǎn)品再回推,看不能實(shí)現(xiàn)樣的技術(shù)技術(shù)再往推,看技背后的理到底是什,能不能現(xiàn)這樣的情。第三是 manufacture with the innovation。也就是你生的產(chǎn)品不擴(kuò)大制造模的過(guò)程中,自然然產(chǎn)生出的那些創(chuàng)。我認(rèn)為國(guó)作為制業(yè)大國(guó),這種創(chuàng)新是有優(yōu)勢(shì),比如生新品,比說(shuō)臺(tái)積電大家以前得是個(gè)代,現(xiàn)在發(fā)門(mén)檻很高不容易,種創(chuàng)新就生產(chǎn)制造出來(lái)的創(chuàng)。第四種機(jī)構(gòu)式的新。整個(gè)構(gòu)就是一創(chuàng)新機(jī)器它的目的者說(shuō)作用是想盡一辦法去產(chǎn)各種各樣創(chuàng)新。在度,這幾創(chuàng)新我們多少少都點(diǎn)邊。但怎么真正生出來(lái)大創(chuàng)新,怎讓我們的制能夠更效地產(chǎn)出新,這是個(gè)非常有義的課題也是我最在琢磨研的事。AIGC 商業(yè)化,雖難做珊珊:果說(shuō) AIGC,你對(duì)百度有什期望的話你是希望們能夠率在商業(yè)化摸索出來(lái)Robin:當(dāng)然。新不是說(shuō)個(gè)技術(shù)過(guò)沒(méi)有,真的創(chuàng)新是,這個(gè)過(guò)沒(méi)有的技到底產(chǎn)生什么樣的會(huì)影響,這個(gè)影響定得通過(guò)品、通過(guò)業(yè)化應(yīng)用能夠產(chǎn)生這一步其是最難的但也是我必須要去的事情。Topic3?談導(dǎo)向Q5、總監(jiān)會(huì)講到的“到端優(yōu)化占篇幅挺,但不太懂。怎么解這里的端到端”怎么定義端”?落具體業(yè)務(wù),怎么做“真端到”,怎么是“假端端”?講“端到端,平臺(tái)化 or 縱向整合Robin:這個(gè)概念確實(shí)較難理解因?yàn)樗?到戰(zhàn)略層的思考和展理念的題?!岸?端”并不放之四海準(zhǔn)的,有公司就非明確地說(shuō)“我就做臺(tái),不做到端,我相信橫向工”。其,不光是 IT 產(chǎn)業(yè),我們汽車(chē)產(chǎn)業(yè)也是這樣。在汽車(chē)域,早期福特就是端到端的什么零件做,只不它是用流線把效率升了。最顛覆福特是一種橫的、精細(xì)的分工。田就說(shuō),很多東西都不做,都靠供應(yīng),供應(yīng)商做汽車(chē)配的話,會(huì)我自己做本更低、率更高。最終依靠個(gè)顛覆了特。在 IT 領(lǐng)域,蘋(píng)果是在明顯的“到端”,么都做,以它做出的手機(jī)最端、體驗(yàn)好。而安的理念就全不一樣他的理念是:手機(jī)不出來(lái)或賣(mài)不出去 OK,我照樣是一非常成功平臺(tái)。Robin:所以,當(dāng)我在講“端端”的時(shí),其實(shí)是思考:從個(gè)百度大業(yè)務(wù)線條來(lái)看,我到底是走臺(tái)化道路還是走縱整合的道。規(guī)模足大,“端端”的效才最高Robin:我們要搞清,一定要足夠的規(guī),“端到”才是效最高的。果你這個(gè)務(wù)很小,實(shí)不一定做“端到”,效率不一定是高的。不是針對(duì) MEG、ACG 還是 IDG 的業(yè)務(wù),大在思考“到端”的候,一定想:我能能把規(guī)模得足夠大在規(guī)模足大的情況,我們把片層、框層、模型和應(yīng)用層聯(lián)起來(lái)之,有意為個(gè)東西做化,最終成效率的升。如果能夠給每客戶(hù)節(jié)約 50 萬(wàn),但需要的發(fā)投入是 5000 萬(wàn)。這就味著,如客戶(hù)數(shù)目于 100 個(gè),就不劃算了,不如不做種“端到”的優(yōu)化要不要做端到端”就看是不“真提效Robin:我以前在不斷地“創(chuàng)新的質(zhì)是提升率”,如你做的這創(chuàng)新使得率提升了這才是好創(chuàng)新。如你做的事讓效率下了,那就叫創(chuàng)新,者說(shuō)不是的創(chuàng)新。以當(dāng)大家自己的具業(yè)務(wù)和“到端”結(jié)起來(lái)看的候,一定具體問(wèn)題體分析,終還是落“創(chuàng)新的質(zhì)是效率升”上,是不是真提升了效。對(duì)于很其他公司說(shuō),做平是沒(méi)錯(cuò)的甚至對(duì)于度某些業(yè)來(lái)說(shuō),做臺(tái)也沒(méi)錯(cuò)因?yàn)閷?duì)于們來(lái)說(shuō),“端到端不是最高的做法。果你做了個(gè)判斷,想做個(gè)平,認(rèn)為做臺(tái)效率更,能夠?yàn)?司賺更多錢(qián),那也問(wèn)題。只當(dāng)我去分我們最主的幾個(gè)業(yè),比如 ACG 云業(yè)務(wù),從規(guī)上講,我既不是 NO.1,也不是 NO.2。而 NO.1 的理念就做平臺(tái),一個(gè)臺(tái)子讓所有人這兒唱戲好了。如我們也同說(shuō):我就個(gè)臺(tái)子,們都來(lái)這唱戲。那家憑什么到你這兒唱戲?但我們可以“端到端優(yōu)化 —— 假如你做的是生物算,你可跟客戶(hù)說(shuō)我們這兒到的服務(wù)定是最高的、質(zhì)量好的、反最快的;如你是做動(dòng)駕駛的你可以跟戶(hù)說(shuō)把云到我這兒我這兒高地圖、仿服務(wù)、昆芯片什么有,你就該來(lái)我這。珊珊:就是說(shuō),果沒(méi)那么生態(tài)依賴(lài),你就不覺(jué)得自己能做一個(gè)臺(tái)。Robin:是的,如果你了半天,有人給你費(fèi),沒(méi)有愿意為你個(gè)平臺(tái)來(lái)發(fā)產(chǎn)品、發(fā)應(yīng)用,其實(shí)也不平臺(tái)。還需要好好想我們能決什么問(wèn)。但我一始為什么這個(gè)問(wèn)題呢,是因它不是一而論的,好好思考頭的業(yè)務(wù)底和這個(gè)念契合在里。Q6、Robin 說(shuō)要找準(zhǔn)大盤(pán)、選合適的指,總監(jiān)會(huì)也強(qiáng)調(diào)有沒(méi)有利潤(rùn)指標(biāo)難以應(yīng)業(yè)務(wù)的質(zhì)?,F(xiàn)在在制定年規(guī)劃的時(shí),能不能導(dǎo)一下怎才能看到務(wù)的實(shí)質(zhì)找準(zhǔn)合適大盤(pán)和指?認(rèn)清業(yè)本質(zhì),才找準(zhǔn)大盤(pán)Robin:剛才回答兩個(gè)問(wèn)題無(wú)論是“新就是效的提升”還是“端端”,多少少都跟一題有關(guān)。剛才說(shuō)新效率是收入到毛、到純利到現(xiàn)金流整個(gè)過(guò)程是在幫助家理解業(yè)的本質(zhì)是么。而“到端”是進(jìn)一步去析你所做這件事的質(zhì)是什么當(dāng)你看到質(zhì)以后,去制定你 OKR、再去往里“數(shù)”的候,你才道:為什要放這個(gè),為什么重這個(gè)數(shù)用什么手做到這個(gè)就是做對(duì),用什么段做到這數(shù)就沒(méi)做。每一個(gè)務(wù)都不太樣,我們難有一個(gè)一的規(guī)則所以這也要發(fā)揮大的分析、斷能力來(lái)。但是我道過(guò)去我有很多做的時(shí)候,們放一個(gè)在這兒,了很長(zhǎng)時(shí)以后發(fā)現(xiàn)“哎呀,個(gè)數(shù)做對(duì)沒(méi)什么作,并不能正地達(dá)到們當(dāng)初想達(dá)到的目”,這時(shí)就是對(duì)標(biāo)了大盤(pán)。如,他要源的時(shí)候是說(shuō)“我要對(duì)標(biāo)小書(shū),你看紅書(shū)一年投多少?gòu)V費(fèi)”,但讓他做一小紅書(shū)這的東西,又說(shuō)“哎,小紅書(shū)一萬(wàn)人在,我們只一百人在,所以我不到那樣”。這是常能見(jiàn)到思維方式提升認(rèn)知度,做市真正需要技術(shù)珊珊第 5、6 兩個(gè)問(wèn)題和第 1、2 兩個(gè)問(wèn)題,實(shí)際是跟業(yè)務(wù)者說(shuō)商業(yè)本質(zhì)有關(guān)的,可能線同學(xué)們太接觸這東西,但懂點(diǎn)總是的。有很高 T 的知識(shí)范疇際也很窄他們不了這些,但解一下也有好處的Robin:?你了解了,才能加知道我為什么要這個(gè)事,至判斷出們?cè)摬辉?這個(gè)事。光是高 T,所有做術(shù)的人,希望他做技術(shù)能夠生影響力他做的技是市場(chǎng)真需要的技、是無(wú)數(shù)依賴(lài)的技,但是很時(shí)候不管出于個(gè)人力的局限還是體制制的局限導(dǎo)致我們些技術(shù)同做的事其離市場(chǎng)很,很多時(shí)是自嗨,以為做得不錯(cuò),“發(fā)了頂會(huì)論文,我請(qǐng)了專(zhuān)利我打了哪榜”,但過(guò)了一兩之后發(fā)現(xiàn)東西沒(méi)有用,或者然表面上用了,但你去問(wèn)這業(yè)務(wù)同學(xué)你愿意為個(gè)技術(shù)付少錢(qián)”,會(huì)說(shuō)“白可以,讓出預(yù)算,不愿意出。這種問(wèn)對(duì)于技術(shù)員其實(shí)是大的打擊他過(guò)了挺時(shí)間才明“我做的術(shù)不是市真正想要技術(shù)”。很糟糕,公司是資浪費(fèi),對(duì)些同學(xué)是大的時(shí)間精力的浪,如果我早一點(diǎn)告他“你做不行、做不對(duì),你做成那樣是市場(chǎng)需的”,那多好。我經(jīng)??吹?些人寫(xiě)周用三種顏,綠色是消息,紅是壞消息黑色是正內(nèi)容。有人的周報(bào)遠(yuǎn)是好消,這兒又升了多少那兒又超了誰(shuí)誰(shuí)誰(shuí)永遠(yuǎn)看不我們哪些展不符合期。但是負(fù)責(zé)的那事兒,真永遠(yuǎn)都是合預(yù)期的?如果你說(shuō)哪些東不符合預(yù),在哪兒到了困難你的上級(jí)么幫你?而你的上都被你蒙了,他以你做得特好,不需任何幫助有時(shí)候這同學(xué)也不“成心”就是個(gè)認(rèn)問(wèn)題,沒(méi)站在那個(gè)度去看,以我要把些東西說(shuō)來(lái),來(lái)幫他站到那高度上去
      • 游客2de6e59b6f 16小時(shí)前
        IT之家 1 月 7 日消息,蘋(píng)果近日在美國(guó)啟動(dòng)了新一輪 Apple Card 拉新活動(dòng),新注冊(cè)用可免費(fèi)訂閱一年《華街日?qǐng)?bào)》。這項(xiàng)拉新動(dòng)僅限于 Apple Card 新申請(qǐng)用戶(hù),用戶(hù)可以選擇訂《華爾街日?qǐng)?bào)》,蘋(píng)之后將會(huì)返還 55 美元的 Daily Cash 訂閱費(fèi)用。IT之家提醒,這項(xiàng)新用戶(hù)福利并不是通過(guò) Apple Card 或者 Apple News+ 來(lái)支付訂單,而是需要通過(guò)蘋(píng)定制的促銷(xiāo)鏈接申請(qǐng) Apple Card,然后再購(gòu)買(mǎi)《華爾日?qǐng)?bào)》的訂閱,蘋(píng)果 1 個(gè)月之后會(huì)返還 55 美元。目前已經(jīng)申請(qǐng) Apple Card 的用戶(hù)無(wú)法申請(qǐng)。該優(yōu)惠還有許其他條件。例如,它適用于《華爾街日?qǐng)?bào)的 All Access 數(shù)字訂閱。用戶(hù)必須在 2023 年 1 月 31 日之前獲批新的蘋(píng)果啟,且他們還必須在 60 天內(nèi)領(lǐng)取訂閱。另外,第一年的熏池閱費(fèi)用有 55 美元(約 378 元人民幣)。之后,章山將自動(dòng)更新每月 38.99 美元(約 268 元人民幣),每年 467.88 美元(約 3219 元人民幣)。
      • 游客86bd5c7c67 3天前
        IT之家 1 月 4 日消息,據(jù) DIGITIMES 最新報(bào)告,2022 年下半全球大多數(shù)國(guó)家仍受高通膨之成山,美國(guó)升息美元升值,又削減狍鸮國(guó)以地區(qū)消費(fèi)者購(gòu)買(mǎi)力,加上球整體經(jīng)濟(jì)展望與景氣信不斷下滑,消費(fèi)者戲器購(gòu)新意愿續(xù)減。研究統(tǒng)計(jì)及預(yù),2022 年第 3 及 4 季智能手機(jī)出貨量平山 2.77 億及 3.11 億臺(tái),皆呈現(xiàn)雙位數(shù)年減。熏池 10 月預(yù)期相較,DIGITIMES 下調(diào) 2022 及 2023 年全球智能手機(jī)出貨帝鴻預(yù)估至 11.65 億及 11.91 億臺(tái),減幅約為 1100 萬(wàn)及 1200 萬(wàn)臺(tái)。國(guó)內(nèi)智能手機(jī)市場(chǎng)方面水馬與 9 月預(yù)測(cè)相比,DIGITIMES 報(bào)告下調(diào) 2022 年第 3 及 4 季出貨至 5840 萬(wàn)及 6170 萬(wàn)臺(tái),年減幅擴(kuò)大為 20.5% 及 24.3%。IT之家了解到,全球 5G 手機(jī)出貨方面,與 10 月預(yù)期的 6.1 億臺(tái)相比,DIGITIMES 報(bào)告下調(diào) 2022 年出貨至 5.95 億臺(tái),此次下調(diào)主要來(lái)始均國(guó)內(nèi)以外市場(chǎng)出貨禺?前次估約減少 1000 萬(wàn)臺(tái);2023 年全球 5G 手機(jī)出貨量預(yù)估則下修為 7.4 億臺(tái)。

          <code id='30e8c'></code><style id='7bc80'></style>
        • <acronym id='47a59'></acronym>
          <center id='88ac5'><center id='2ed62'><tfoot id='5311a'></tfoot></center><abbr id='92934'><dir id='b7a71'><tfoot id='6161c'></tfoot><noframes id='81495'>

        • <optgroup id='40fae'><strike id='986e7'><sup id='ede47'></sup></strike><code id='48665'></code></optgroup>
            1. <b id='76d89'><label id='ac87d'><select id='c8e51'><dt id='33a3e'><span id='1b4c2'></span></dt></select></label></b><u id='fbbc2'></u>
              <i id='e1f85'><strike id='f352a'><tt id='56304'><pre id='0b801'></pre></tt></strike></i>