2023.04.06
GoogleのAI用プロセッサ「TPU v4」はNVIDIAの「A100」より高速で効率的だとGoogleの研究者が主張
A100なんてNvidiaにとっては旧世代のプロセッサでは?
ChatGPTは1万個のA100で学習したらしい。
A100は1個100万円ちょっとなはず。そして既にNvidiaはA100より3倍高速なH100を400万円で開発済み。OpenAIはNvidiaのGPUを3万個導入予定とか
何でもいいからNvidiaの株価あがれー。そして少しは配当金増やそうよ。
Category:#AIが止まらない
■ ■ ■ コメント ■ ■ ■
この記事のアクセス数:本カテゴリーで直近コメントが書かれた記事
→カテゴリー:#AIが止まらない(記事数:216)
本カテゴリーの最近の記事(コメント数)