2024.09.26
NotebookLMのローカル版みたいなの無いかな?
Category:#AIが止まらない
■ ■ ■ コメント ■ ■ ■
いいっすね!=42
001 [09/26 21:51]ふぇちゅいんさんふぁん(ゆるりゆラリー)★99:エロじゃないかったか。 ↑(11)
002 [09/28 23:50]とおりすがり@Au:「NotebookLMのローカル版みたいなの無いかな?」って、みんな思って自分で建ててるんですよ。会社がRAG建てるならそれを会社では使う、建てないならLLAMA系のLLM+RAGを自分で建てるんです。 ↑(11)
003 [09/29 00:07]とおりすがり@Au:LLMやりとりとhisto.fyiの関連は無いのでは。LLMをマルチモーダルに出来るならhisto.fyi自体の価値は薄れるだろうから、その他OverallでLLM使ってるんだろうし。そこは、TURINGみたいに手を入れて段違いの効率化を入れたいところだが、本業の片手間でマルチモーダル化に手を入れるのはまだハードル高すぎると個人的に思っている。12GB VRAMだと使えるモデルが限定されすぎて全くもってお話にならなかったし、コンスーマーで手に入る上限の48GBだと個人で買うには高すぎる。GCPでフルに回すのはGENIACレベルの補助が無いと無理。 ↑(9)
本カテゴリーで直近コメントが書かれた記事
→カテゴリー:#AIが止まらない(記事数:220)
本カテゴリーの最近の記事(コメント数)