なぜ研究者はローカルPCでAIを実行する必要があるのか?
カテゴリー:#AIが止まらない(記事数:220)

↑B


2024.09.26

なぜ研究者はローカルPCでAIを実行する必要があるのか?

NotebookLMのローカル版みたいなの無いかな?

Category:#AIが止まらない



■ ■ ■ コメント ■ ■ ■

いいっすね!=42
001 [09/26 21:51]ふぇちゅいんさんふぁん(ゆるりゆラリー)★99:エロじゃないかったか。 (11)
002 [09/28 23:50]とおりすがり@Au:「NotebookLMのローカル版みたいなの無いかな?」って、みんな思って自分で建ててるんですよ。会社がRAG建てるならそれを会社では使う、建てないならLLAMA系のLLM+RAGを自分で建てるんです。 (11)
003 [09/29 00:07]とおりすがり@Au:LLMやりとりとhisto.fyiの関連は無いのでは。LLMをマルチモーダルに出来るならhisto.fyi自体の価値は薄れるだろうから、その他OverallでLLM使ってるんだろうし。そこは、TURINGみたいに手を入れて段違いの効率化を入れたいところだが、本業の片手間でマルチモーダル化に手を入れるのはまだハードル高すぎると個人的に思っている。12GB VRAMだと使えるモデルが限定されすぎて全くもってお話にならなかったし、コンスーマーで手に入る上限の48GBだと個人で買うには高すぎる。GCPでフルに回すのはGENIACレベルの補助が無いと無理。 (9)

名前 ↑B

コメント(※改行は省略されます)

※3回以上の連続書き込み不可
この記事のアクセス数:

本カテゴリーで直近コメントが書かれた記事


→カテゴリー:#AIが止まらない(記事数:220)
本カテゴリーの最近の記事(コメント数)