日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

亞馬遜云科技AIGC全家桶Bedrock炸裂登場,開放定制,隱私拉滿

 天承辦公室 2023-04-21 發(fā)布于江蘇


  新智元報(bào)道  

編輯:編輯部
【新智元導(dǎo)讀】模型不open?沒關(guān)系,亞馬遜云科技幫你open。官宣Bedrock平臺,定制芯片打下訓(xùn)練推理成本,生成式AI競賽,越來越精彩了。

如火如荼的AI競賽,亞馬遜云科技也下場了。

有些不同的是,除了自己構(gòu)建的AI模型,他們還招募第三方在亞馬遜云科技上托管模型。

憑借這個(gè)叫Amazon Bedrock的平臺,亞馬遜云科技正式進(jìn)軍生成式AI賽道。

在極優(yōu)性能的云基礎(chǔ)設(shè)施上,大規(guī)模運(yùn)行生成式AI應(yīng)用,毫無疑問,亞馬遜云科技在掀起一場顛覆性變革。

AIGC的「基石」:基礎(chǔ)模型


過去的十多年里,人工智能領(lǐng)域大部分研究集中在訓(xùn)練神經(jīng)網(wǎng)絡(luò)來完成一項(xiàng)特定的任務(wù)。

比如在CV中,圖像分類、分割、或者識別圖中是否是一只貓;在NLP中,語義檢索、翻譯等等。

圖片

直到ChatGPT的橫空出世,甚至可以說最早從Stable Diffusion開始,生成式AI的能力逐漸打破人們原有的認(rèn)知。

在大模型加持下的AI工具,不僅能創(chuàng)造新穎的內(nèi)容,還能夠生成圖片、視頻、音樂,以往它從未見過的東西。

研究者發(fā)現(xiàn),當(dāng)參數(shù)量足夠多,或者達(dá)到一定規(guī)模時(shí),大模型就會出現(xiàn)一種不可預(yù)測現(xiàn)象,也就是「涌現(xiàn)」能力。

隨著機(jī)器學(xué)習(xí)進(jìn)步,特別是基于Transformer的神經(jīng)網(wǎng)絡(luò)架構(gòu),使得開發(fā)數(shù)十億參數(shù)規(guī)模的FMs成為可能。

正是GPT-3、DELL-E、GPT-4等超大模型興起,讓語言模型的訓(xùn)練范式發(fā)生了重大變化。

模型訓(xùn)練過程不再過度依賴顯性標(biāo)注,能夠根據(jù)句子中已有單詞,預(yù)測一下詞,實(shí)現(xiàn)了智能體的認(rèn)知能力進(jìn)步。

其實(shí),這些大模型就是李飛飛等人在2021年提出的「基礎(chǔ)模型」(Foundation Models)。

圖片

因?yàn)樵诖罅康臄?shù)據(jù)上進(jìn)行了預(yù)訓(xùn)練,基礎(chǔ)模型已具有了高度適應(yīng)性,能夠完成一系列下游任務(wù)。

基礎(chǔ)模型的優(yōu)勢就在于,可以被用于微調(diào)的特定領(lǐng)域,或者創(chuàng)建一個(gè)業(yè)務(wù)模型的起點(diǎn)。在理解數(shù)行為方面,F(xiàn)M當(dāng)然是最好的。

微調(diào)模型,就需要在特定數(shù)據(jù)集(有標(biāo)注)進(jìn)一步訓(xùn)練而來的模型。

而這種數(shù)據(jù)集是解決特定任務(wù)所需的,因?yàn)榇竽P椭荒茏龅健负芏?,但不能做到「很?!埂?/span>

微調(diào)后的模型結(jié)合了2點(diǎn)優(yōu)勢:一是對數(shù)據(jù)結(jié)構(gòu)的理解,再一個(gè)是通過標(biāo)注數(shù)據(jù)的形式了解業(yè)務(wù)問題的背景。

這樣一來,微調(diào)后的模型同樣能夠?qū)崿F(xiàn),在特定領(lǐng)域生成類人的文本或圖像。

就比如,彭博推出了金融領(lǐng)域?qū)S玫?00億參數(shù)大模型BloombergGPT。

圖片

由此可見,基礎(chǔ)模型是生成式AI的關(guān)鍵,是AIGC的基石。

大模型雖好,但一般人并用不起


當(dāng)下,整個(gè)業(yè)界呼聲最高的便是,哪里有大模型可用。

我們都知道,訓(xùn)練一個(gè)超大規(guī)模的語言模型,同樣離不開三駕馬車:算法、算力、數(shù)據(jù)。

而且還需要的是超強(qiáng)算法、超大算力和數(shù)據(jù)。

圖片

就拿訓(xùn)練ChatGPT來說,微軟曾揭秘了為OpenAI斥資數(shù)十億美元,用了3萬多個(gè)英偉達(dá)A100打造超算。

為了擺脫這一困境,報(bào)道稱微軟早在2019年開始,就投入300人團(tuán)隊(duì)自研芯片Athena。

數(shù)據(jù)方面,雖然現(xiàn)在僅依靠少樣本數(shù)據(jù)來訓(xùn)練模型,但數(shù)據(jù)可用性也是一大難題。

最近,紐約時(shí)報(bào)稱,Reddit便開始計(jì)劃向使用平臺數(shù)據(jù)訓(xùn)練模型的公司收費(fèi),其中就包括微軟、谷歌、OpenAI等公司。

圖片

而要訓(xùn)練出真正優(yōu)秀的大語言模型,不僅需要耗費(fèi)資本,還需要足夠多的時(shí)間。2022年,GPT-4模型訓(xùn)練完成后,還用了6個(gè)月的時(shí)間,進(jìn)行了微調(diào)和測試。

這也恰恰解釋了為什么大多數(shù)公司都想用大型語言模型,但又不想投入太多成本。只想借用基礎(chǔ)模型泛化能力,用自己特定領(lǐng)域的數(shù)據(jù),去微調(diào)模型。

對此,亞馬遜云科技做了大量的用戶調(diào)研后,發(fā)現(xiàn)客戶的主要需求是——

1. 需要一個(gè)簡單的方法來查找和訪問高性能基礎(chǔ)大模型,既要提供出色的結(jié)果,也要符合自己的目標(biāo)。

2. 需要模型能夠無縫地集成到應(yīng)用程序中,而不必管理龐大的基礎(chǔ)設(shè)施集群或產(chǎn)生大量成本。

3. 希望能夠輕松獲得基礎(chǔ)大模型,并使用自己的數(shù)據(jù)(少量或大量數(shù)據(jù))構(gòu)建差異化應(yīng)用。

由于客戶希望用于定制的數(shù)據(jù)是非常寶貴的IP,因此他們需要在此過程中保持完全的保護(hù)、安全和隱私,并且他們希望控制其數(shù)據(jù)的共享和使用方式。

Bedrock:主打的就是一個(gè)模型定制+數(shù)據(jù)隱私


為了解決這些問題,亞馬遜云科技認(rèn)為,應(yīng)該讓生成式AI技術(shù)變得普惠起來。

也就是說,AIGC并不獨(dú)屬于少數(shù)初創(chuàng)公司和資金雄厚的大廠,而是要讓更多公司從中受益。

于是,一個(gè)名為Bedrock的基礎(chǔ)大模型云服務(wù),便應(yīng)運(yùn)而生了。

而Bedrock也是亞馬遜云科技在生成式AI市場上最大的一次嘗試,根據(jù)Grand View Research的估計(jì),到2030年,該市場的價(jià)值可能接近1100億美元。

圖片

值得一提的是,Bedrock最重要的特色,就是讓開發(fā)者能夠輕松定制模型,并構(gòu)建屬于自己的生成式AI應(yīng)用程序。

在訓(xùn)練時(shí),Bedrock會為開發(fā)者創(chuàng)建一個(gè)基礎(chǔ)模型的副本,并對此私有副本進(jìn)行訓(xùn)練。其中,所有的數(shù)據(jù)都經(jīng)過加密的,并且不會離開虛擬專用云(VPC)。此外,這些數(shù)據(jù)也不會被用來訓(xùn)練底層大模型。

此外,開發(fā)者還可以通過在Amazon S3中提供一些標(biāo)注示例來為特定任務(wù)微調(diào)模型,無需大量個(gè)人數(shù)據(jù)就能產(chǎn)生比較滿意的結(jié)果。

更重要的是,Bedrock可以與平臺上其他的工具和功能配合使用,這意味著開發(fā)者無需管理任何額外的基礎(chǔ)設(shè)施。

圖片

自研「泰坦」+第三方SOTA模型

具體來說,Bedrock主要包含兩部分,一個(gè)是亞馬遜云科技自己的模型Titan,另一個(gè)是來自初創(chuàng)公司AI21 Labs、Anthropic,以及Stability AI的基礎(chǔ)模型。

基礎(chǔ)模型具體包括:

  • Amazon自研Titan

  • Claude(Anthropic)

  • Jurassic-2(AI21 Labs )

  • Stable Diffusion(Stability.AI)

圖片

Titan基礎(chǔ)模型的構(gòu)建是基于亞馬遜云科技在機(jī)器學(xué)習(xí)領(lǐng)域20多年的經(jīng)驗(yàn)。
Titan包含了兩個(gè)大語言模型,一個(gè)是用于生成文本的Titan text,一個(gè)是讓網(wǎng)絡(luò)搜索個(gè)性化的Titan Embeddings。
Titan text針對的是總結(jié)、文本生成、分類、開放式問答和信息提取等任務(wù)。
文本嵌入Titan Embeddings模型,能夠?qū)⑽谋据斎耄ㄗ衷~、短語、大篇幅文章)翻譯成包含語義的數(shù)字表達(dá)(embeddings嵌入編碼)。
圖片
用戶可以通過自己的數(shù)據(jù)定制Titan模型。并且,亞馬遜云科技非常保護(hù)用戶數(shù)據(jù)隱私,不會將用戶數(shù)據(jù)拿來再訓(xùn)練Titan模型。
而且,不同于其他大模型時(shí)常會出現(xiàn)的「幻覺」,Titan在訓(xùn)練時(shí)非常關(guān)注精度,就是為了保證產(chǎn)生的響應(yīng)一定是高質(zhì)量的。
除了亞馬遜云科技的Titan模型,開發(fā)者們還可以利用其他的基礎(chǔ)模型。
其中包括AI21 Labs開發(fā)的Jurassic-2多語種大語言模型系列,能夠根據(jù)自然語言指令生成文本內(nèi)容,目前支持西班牙語、法語、德語、葡萄牙語、意大利語和荷蘭語。
還有Anthropic開發(fā)的大語言模型Claude,能夠執(zhí)行多輪對話和文本處理任務(wù)。
第三個(gè)基礎(chǔ)模型便是Stability AI的文本圖像生成模型Stable Diffusion。
通過這些模型,開發(fā)者只用20個(gè)樣本,就能一鍵定制自己的模型。
圖片
舉個(gè)例子,一位營銷經(jīng)理想為手提包新品開發(fā)廣告創(chuàng)意,他只需向Bedrock提供標(biāo)注過的最佳廣告,以及新品描述,Bedrock就能自動(dòng)生成媒體推文、展示廣告和產(chǎn)品網(wǎng)頁。
同樣的,所有數(shù)據(jù)都進(jìn)行了加密,任何客戶數(shù)據(jù)都不會被用于訓(xùn)練底層模型。
目前,Coda AI、Deloitte、埃森哲、Infosys等合作伙伴已經(jīng)用上了Bedrock。

AIGC爆發(fā),云服務(wù)供應(yīng)商需求猛增

隨著相關(guān)技術(shù)的演進(jìn),各行各業(yè)對于AIGC內(nèi)容的需求也在不斷增加,從營銷到客服,再到新聞和娛樂等等。
這對于那些提供基礎(chǔ)設(shè)施服務(wù)的供應(yīng)商來說,是一個(gè)非常好的機(jī)會。
根據(jù)Gartner的預(yù)測,到2025年,AIGC數(shù)據(jù)將占到所有數(shù)據(jù)的10%,而目前這一比例還不到 1%。
為了在這個(gè)領(lǐng)域占據(jù)一席之地,微軟和谷歌相繼推出了基于自家模型的云服務(wù)——前者高調(diào)宣布將ChatGPT整合進(jìn)Azure OpenAI Service,而后者也在Google Cloud上推出了企業(yè)級生成式AI工具。
相比之下,亞馬遜云科技在Bedrock中搭載的模型則更加豐富,不僅有自研的泰坦,還有來自其他初創(chuàng)公司的開源模型。而且,據(jù)稱還會有更多的模型加入其中。
憑借其靈活性和定制選項(xiàng)、以及對隱私的承諾,Bedrock更能迎合不同行業(yè)的獨(dú)特需求。

自研芯片:訓(xùn)練推理成本被打下來了

現(xiàn)在模型雖然有了,但為了能讓更多人用上,其訓(xùn)練和推理的成本還需要進(jìn)一步降低。
亞馬遜云科技的自研芯片,無疑為其帶來巨大的優(yōu)勢。
其中,包括Inferentia2和Trainium,可以讓客戶在進(jìn)行機(jī)器學(xué)習(xí)工作時(shí),將成本降到很低。
圖片
與其它EC2實(shí)例相比,由Trainium支持的Trn1計(jì)算實(shí)例可以節(jié)省高達(dá)50%的訓(xùn)練成本。
并且經(jīng)過優(yōu)化,可以在與高達(dá)800Gbps的第二代EFA(彈性結(jié)構(gòu)適配器)網(wǎng)絡(luò)相連的多個(gè)服務(wù)器上分發(fā)訓(xùn)練任務(wù)。
800 Gbps是一個(gè)很大的帶寬,但亞馬遜云科技還宣布新的網(wǎng)絡(luò)優(yōu)化Trn1n實(shí)例的普遍可用性。
它提供1600 Gbps的網(wǎng)絡(luò)帶寬,旨在為大型網(wǎng)絡(luò)密集型模型提供比Trn1高20%的性能。
除了訓(xùn)練需要大量算力,當(dāng)基礎(chǔ)模型進(jìn)行大規(guī)模部署時(shí),每小時(shí)進(jìn)行數(shù)百萬次推理請求也需要大量成本。
亞馬遜云科技曾在2018年發(fā)布了首款推理專用芯片Inferentia,已經(jīng)運(yùn)行數(shù)萬億次推理,并節(jié)省數(shù)億美元成本。
與上一代相比,Inf2實(shí)例不僅吞吐量提高了4倍,延遲降低了10倍,還可實(shí)現(xiàn)加速器之間的超高速連接以支持大規(guī)模分布式推理。
前段時(shí)間發(fā)布的最新文本生成視頻模型Gen-2的公司Runway,有望利用Inf2將部分模型的吞吐量提升至原來的2倍。

20年,刻在DNA里的AI

20多年來,人工智能和機(jī)器學(xué)習(xí)一直是亞馬遜云科技關(guān)注的焦點(diǎn)。
可以說,在機(jī)器學(xué)習(xí)領(lǐng)域的發(fā)明創(chuàng)新已經(jīng)深深刻在亞馬遜云科技的DNA里。
當(dāng)前,用戶在亞馬遜云科技上使用的許多功能都是由其機(jī)器學(xué)習(xí)驅(qū)動(dòng)的,比如電子商務(wù)推薦引擎、優(yōu)化機(jī)器人揀選路線、無人機(jī)Prime Air。
還有語音助手Alexa,由30多個(gè)不同的機(jī)器學(xué)習(xí)系統(tǒng)驅(qū)動(dòng),每周回應(yīng)客戶數(shù)十億次管理智能家居、購物、獲取信息和娛樂的請求。
圖片
截至目前,已經(jīng)有10萬客戶在使用亞馬遜云科技機(jī)器學(xué)習(xí)的能力進(jìn)行創(chuàng)新。
亞馬遜云科技在人工智能和機(jī)器學(xué)習(xí)堆棧的三個(gè)層級都擁有至深至廣的產(chǎn)品組合。
通過不斷投入、持續(xù)創(chuàng)新,亞馬遜云科技為機(jī)器學(xué)習(xí)提供高性能、可伸縮的基礎(chǔ)設(shè)施,和極具性價(jià)比的機(jī)器學(xué)習(xí)訓(xùn)練和推理;
另外,Amazon SageMaker為所有開發(fā)人員構(gòu)建、訓(xùn)練和部署模型提供最大的便利;
亞馬遜云科技還推出大量的服務(wù),用戶可以通過簡單的API調(diào)用就可添加AI功能到應(yīng)用程序中,如圖像識別、預(yù)測和智能搜索。
圖片
同樣,在生成式AI技術(shù)上,亞馬遜云科技也要邁出重要的一步,讓這項(xiàng)技術(shù)也要賦能千行百業(yè)。
亞馬遜云科技所做的就是,將基礎(chǔ)模型的能力讓許多客戶能夠訪問、為機(jī)器學(xué)習(xí)推理和訓(xùn)練提供基礎(chǔ)設(shè)施、讓所有開發(fā)人員提高編碼效率。
圖片
此前,亞馬遜云科技曾與Hugging Face和Stability AI等公司合作,但從未透露發(fā)布本土大語言模型的計(jì)劃。
但亞馬遜云科技數(shù)據(jù)庫、機(jī)器學(xué)習(xí)和分析副總裁Swami Sivasubramanian表示,公司長期以來一直致力于大語言模型,而LLM早就被用來幫助購物者在亞馬遜云科技的零售網(wǎng)站上搜索產(chǎn)品,以及支持Alexa語音助手等應(yīng)用。
亞馬遜云科技在生成式AI上的幾項(xiàng)創(chuàng)新只是一個(gè)開始。這是一場技術(shù)革命的早期階段,并將持續(xù)幾十年。
在這個(gè)最新的節(jié)點(diǎn)上,亞馬遜云科技將通過自身創(chuàng)新降低AI的門檻,進(jìn)而賦能千行百業(yè)。
據(jù)可靠消息:5月25日將舉辦亞馬遜云科技大模型及生成式AI發(fā)布深度解讀大會,敬請期待。

    本站是提供個(gè)人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多