“放棄元宇宙,轉戰(zhàn)布局AI”,成了近些天各大企業(yè)競相追趕的潮流。
【資料圖】
微軟據(jù)稱解散了四個月前組建的工業(yè)元宇宙團隊;繼前兩年前入局元宇宙后,三六零(“360”)近日對外公布,計劃推出類ChatGPT的demo版產(chǎn)品......“AI熱”會成為下一個快速破滅的泡沫嗎?
媒體分析認為,AIGC的出現(xiàn)對于風投行業(yè)來說,就像“久旱逢甘霖”,目前風投公司掌握著3000億美元的火藥準備入場。同時,正經(jīng)歷著大規(guī)模裁員潮的硅谷也急需要下一件讓其“抖擻精神”的大事。
但任何事物的出現(xiàn)均無法避免反對的聲音,隨著人工智能ChatGPT的熱浪席卷各行各業(yè),對于人工智能擔憂與警惕的聲音隨之而來,“反ChatGPT”開始成為一股新的勢力。
媒體指出,ChatGPT為代表的AI的爆火與元宇宙和NFT的本質不同在于:對許多人來說,元宇宙仍然是一個模糊的概念,但AI的底層技術技已在各個行業(yè)被運用了二十年,正在經(jīng)歷技術迭代和加速發(fā)展階段,從軟件工程到財務、到運營、到法律、到物流和再到藝術。因此,盡管此次AI爆火仍然存在泡沫,但不可否認的是其并不會像元宇宙和NFT那樣存在“炒概念”之嫌。
華泰電子團隊分析指出,是否擁有大模型將成為科技巨頭/科技平臺企業(yè)的重要分水嶺,未來科技巨頭之間將展開大模型軍備競賽,科技公司遠期投資價值或將被重新定義。
帶來了新的革命?
微軟自2022年11月發(fā)布ChatGPT后,宣布和OpenAI公司合作推出內(nèi)置ChatGPT的必應搜索、Edge瀏覽器、Office套件及Azure,讓谷歌壓力倍增,AI發(fā)展速度之快也讓市場始料未及。微軟董事會成員 Reid Hoffman去年曾表示,“魔法真的出現(xiàn)了”Hoffman解釋道:
Copilot正在幫助軟件工程師編寫多達40%的代碼人工智能將改變所有行業(yè),每個人都必須考慮如何運用它。在我們所做的一切中都會出現(xiàn)AI的身影,這是我們所做一切的基礎。
一位云計算高管在最新的TEC Town Hall討論中表示,AIGC的發(fā)展不僅會影響搜索引擎,“云革命”可能正在逐漸爆發(fā):
“這是一場非常重要的革命,我認為它和工業(yè)革命一樣重要。不立即接受它的公司可能會被淘汰?!?/p>
媒體分析指出,ChatGPT的出現(xiàn)重新定義了機器學習,正在開發(fā)和推出的深度語言學習模型將會到達另一個高度:
以財務中的運用為例,我們?nèi)绻肁I分析5000張資產(chǎn)負債表,它可以在幾秒鐘完成閱讀,提取所有有用的財務信息,計算風險評分,并能夠對投資組合的風險做出決策。
“AI+”(以AI技術賦能行業(yè)的科技企業(yè))還是“+AI”(采用AI技術的傳統(tǒng)企業(yè))能夠勝出是上一輪AI投資最大的爭議。分析指出,當大模型主導的創(chuàng)新周期到來,以GPT-3大模型為例,其需要1750億數(shù)據(jù)和數(shù)百萬、數(shù)千萬美元的算力投資,壁壘顯著提升。
華爾街見聞見智研究認為,由于AIGC拉動對高算力的需求出現(xiàn)指數(shù)級增長,云計算廠商對于AI訓練以及云服務的資本開支或將重新回暖。
以微軟為力,對于搜索引擎的AI功能升級,資本開支已經(jīng)出現(xiàn)增長趨勢。其他廠商很可能在市場需求的風向下,改變原本的資本支出計劃。
可以創(chuàng)造新的就業(yè)機會?
反對AI發(fā)展的經(jīng)典論述是將其描述成“工作殺手”,但通過媒體采訪,公司高管指出:
人工智能將接管人類一開始就不應該做的重復性工作,讓人類做更重要的工作。
媒體稱,目前高管們對于人工智能的態(tài)度是,人工智能不會取代律師,但“使用人工智能的律師將取代律師”,分析指出:
“現(xiàn)在有這樣一種看法,尤其是在專業(yè)行業(yè),如果律師和會計師等專業(yè)人士不使用人工智能,他們將被那些使用這些工具的人所取代,因為這些愿意合理利用AI的人將變得更有效率,可以做到更多。 ”
在科技行業(yè)中,一位CTO稱,他們于四年前開始使用AIGC運行服務請求的實驗結果,這導致公司約 89% 的計劃外服務請求現(xiàn)在完全自主處理。隨著前團隊的人員流失為零:
“我們沒有裁員。沒有人失去工作,我也認為通過 ChatGPT提高效率的人已經(jīng)取代了那些沒有效率的人?!?/p>
但另一位高管表示,認為可以將一部分人解放出來,從事更高層次工作的愿景是盲目樂觀,在商業(yè)世界中可能會產(chǎn)生相反的效果:
“人們開始應對挑戰(zhàn),人們會變得愚蠢,因為我們只是向計算機詢問一切?!?/p>
關于人工智能的辯論愈發(fā)激烈,有高管分析認為AI驅動的制造和自動化對于優(yōu)化和產(chǎn)量至關重要,如果不用會面臨淘汰:
“我們認為現(xiàn)仔公司不尋求人工智能提供解決方案是非常不負責任的,因為它們現(xiàn)在非常強大。”
AI背后的隱憂
媒體分析指出人工智能的風險依舊很多包括:人工智能大量傳播的錯誤信息;偏見;對人類工作的威脅;版權問題;抄襲問題.....
華泰電子團隊指出,ChatGPT是通往AGI(通用人工智能)道路的一次躍遷,但離AGI仍有較遠的距離。目前圍繞使用ChatGPT等大模型的爭議不休,主要圍繞在以下方面:
1)信息真實性:大語言模型對事實和邏輯世界缺乏真正理解,生成內(nèi)容的真實性和可解釋性存疑;
2)信息有害性:例如,盡管ChatGPT采用了基于人類反饋的強化學習(RLHF),以實現(xiàn)有害和不真實輸出的減少,但如果用戶逐步引導,ChatGPT仍然會響應有害指令;
3)使用不當性:在學術界等場景使用ChatGPT并不恰當,多家頂刊已禁止生成式AI工具署名。
“ChatGPT很好玩,但它不是作者”,這是《Science》期刊主編Holden Thorp此前發(fā)表的一篇關于人工智能的社論指出,“原創(chuàng)”是Science發(fā)表論文的基礎,而利用ChatGPT編寫文本的行為,等同于從ChatGPT中抄襲:
“我們正在更新編輯政策,要求作者不要使用ChatGPT(或任何其他人工智能工具)生成的文本、數(shù)據(jù)、圖像或是圖形。違反這一政策將被Science期刊視為學術不端行為,這與篡改圖像或抄襲無異?!?/p>