硬件層面,也就是所謂的硬件加速, CPU、GPU、FPGA、ASIC。CPU與GPU相比在大數(shù)據多任務處理上,肯定GPU更占優(yōu)勢。FPGA與GPU相比,在兼顧了靈活性的基礎上,無論是計算能力和功耗性能上都要更強,缺點是性價比太低。ASIC是的,其他的硬件形態(tài)都是無法比擬的。
按照官方的設想和規(guī)劃未來在Aleo上每天的交易量都是上億美金的規(guī)模,在這樣大數(shù)據量的要求下,每時每刻都有證明需要被委托出去在極短的時間內完成證明的生產,不可能指望顯卡能解決這個問題。就像AI大模型訓練一樣,早期數(shù)據量和參數(shù)少的情況下可以用消費級顯卡,但是現(xiàn)在更多的都是為AI訓練設計的專用芯片和機器。
在分析之前,我們先看一下ASIC(Application Specific Integrated Circuit),中文全稱是“專用集成電路”。這里特別強調“專用”,“專用”意味著針對單一項目來說會更加有競爭力。相對比,GPU(顯卡)是通用計算處理芯片,所以在單一項目上來說“專用”肯定比“通用”更有競爭力。
為了打破英偉達一家獨大的局面,前任全球芯片老大英特爾和多年老對手AMD對標CUDA都分別推出了OneAPI和ROCm,Linux基金會更是聯(lián)合英特爾、谷歌、高通、ARM、三星等公司聯(lián)合成立了民間號稱“反CUDA聯(lián)盟”的UXL基金會,以開發(fā)全新的開源軟件套件,讓AI開發(fā)者能夠在基金會成員的任何芯片上進行編程,試圖讓其取代CUDA,成為AI開發(fā)者的開發(fā)平臺。