中国スタートアップが無料公開したAI「Deepseek v3」が凄いらしい。アメリカ企業の最先端AIの10分の1のコストで同じ性能
カテゴリー:#AIが止まらない(記事数:256)

2025.01.22

中国スタートアップが無料公開したAI「Deepseek v3」が凄いらしい。アメリカ企業の最先端AIの10分の1のコストで同じ性能

深く理解出来ない話なんだけど、アメリカで凄い勢いで進むAIを中国の野良スタートアップがスゴイ勢いで追い越しつつあるみたいな話でx.comの生成AIクラスタが大騒ぎ。同じ性能を達成するための学習コストも必要スペックも10分の1でローカルでも満足いくLLMが動かせるとか。

最近聞こえてきた話をかきだすと、平均してアメリカ育ちの天才と中国育ちの天才はマーチと東大ぐらいの能力差があって中国からの人材供給を断とうものなら今後のアメリカはヤバいという人とか。

DeepseekはChatGPT的にDeekseekのWeb版とAPIを公開するとともにMITライセンスで全てを公開しており、これは中国人の資本主義/共産主義に対する反抗意識だとか、これを利用すれば遅れ気味の日本もいっきにAIを進められるとか。

アメリカさんGAFAMとか言っていい気になっているけど、AIは民主化が物凄く進んでいるからアメリカにアドバンテージは無くなりそうだし、半導体も実際に製造技術を持っているのはアジアだし、危ないかもよ。とか

Deepseekは下記のリンク先からChatGPT的に利用出来るけど、公式自ら「データは中国内だから中国の法律が適用されるかもよ」とか書いてあるらしい。また天安門とか書くと話をそらされるらしい。

Category:#AIが止まらない

 Keyword:中国/150



■ ■ ■ コメント ■ ■ ■

いいっすね!=9
001 [01/22 14:57]hage@Nuro:裏で先行者が動いているに違いない。 (2)
002 [01/22 15:00]ふとまる@Enb:まあ、単純に中国共産党が金を突っ込んで安値でシェアとる事を優先してるんでしょうね。 (1)
003 [01/22 15:04]ふぇちゅいん(年末年始疲れ) TW★95:>>002 全然理解していないな。お金はかかってないし。才能のみで凄い性能のAIを発明をして、それを無償で全部公開してコピー可能にしちゃっているって話。 (1)
004 [01/22 16:08]とくめーい@Excite:何で中国人そんなに賢いん?漢字文化圏だから?
005 [01/22 16:31]ふぇちゅいん(年末年始疲れ) TW★95:そりゃ青春を全排除した圧倒的な早期詰め込み教育と人数効果では?
006 [01/22 17:15]:中国は3軍が日本の東大とか京大にやってきて無双してるもんな。ローカルLLMで色々遊びたいけど今は過渡期だけにハードを整えるタイミングが難しいね。
007 [01/22 18:37]@YahooBB:GAFAMももう古くて、今はマグニフィセント・セブンとか言ってるらしいよ(^^) 他のAI開発者はその中国のAIのソースも流用しちゃえばいいのでは? というのは素人考えなんだよね?
008 [01/22 19:58]匿名さん:なお天安門事件について聞くと露骨に話題を逸らそうとする模様。性能良くてもガッツリ政治的な検閲入っている時点で微妙かな… (1)
009 [01/22 20:31]ふぇちゅいんさんふぁん(ゆるりゆラリー)★100:ふつうに盗んでるんだと思ったけど、違うのかな?
010 [01/22 21:15]ふぇちゅいん(年末年始疲れ) TW★95:MetaとかOpenAI以外はかなり中身を公開してるんやで、DeepSeekはそれをペースに世界ナンバーワンの仕組みを見出して、しかも公開しちゃってると理解


011 [01/22 22:22]ななしさそ★71:単にマンパワーでデータサイエンティスト(整列奴隷)をやらせているだけじゃ? (1)
012 [01/22 22:28]匿名さん@OCN:数理科学的な分野で出てくる出てくる論文とかを見ている限り、全然そんな印象無いんだけど。何か、日経〜とか東洋経済に載ってる何を言ってるのか分からん記事みたい。 (1)
013 [01/22 23:29]hoge@EM:盗まれてもいい、割に合わないがコストも掛かるクソデータを処理させるのが、圧倒的に気持ちいいわけですよ。延々と3級長編小説を翻訳させるとか。
014 [01/23 15:33]なんぺい@Vm:天安門事件について答えてくれないらしい(笑) (1)
015 [01/25 06:57]とおりすがり@Au:H1-bとかインドが7割だから、中国と断交しても成果激減とかにはならない気がする。つっても、レジとかピザとかに流れる割合多そうだが。H1-b自体を減らすという話が出ていて、そちらの方がよっぽどインパクト気になる。でも、上澄みしか来なくなるからいいのか、それともパレートの法則で上澄みも2割に減るのか。人よりもoがIQ130ならそろそろそれを多数立てればいいフェーズが見えてくるよね。去年からscrathでコード書くことが殆どなくなった。下書きはLLMで十分、その方が早いし、こっちの脳の負担も激減する。ジュニア激減だね。

名前 ↑B

コメント(※改行は省略されます)

※3回以上の連続書き込み不可
この記事のアクセス数:
中国

本カテゴリーで直近コメントが書かれた記事


→カテゴリー:#AIが止まらない(記事数:256)
本カテゴリーの最近の記事(コメント数)