FramePackでローカル(RTX3060)で静止画から動画生成テスト、エ口もいける!
カテゴリー:#AIが止まらない(記事数:308)

2025.05.10

FramePackでローカル(RTX3060)で静止画から動画生成テスト、エ口もいける!

↓メモリ32GB買ってきて増設したら動きました。


↓この画像を入れて「She is calling with her cell-phone」とか入れて60秒生成、F1モード(順方向再生※最初に入れた静止画の後を予測するモード)

生成された動画
うちの環境だと1秒生成するのに1分30秒ぐらいかかる(メモリ48GB、RTX3060 12GB、SSDはSATA接続の安いやつ。
色々TIPS個人メモ

まずFramePackを入れただけだと遅いらしいので3つのライブラリーをインストール
でも少ししか速くならない。1.5倍速にはなってない感じ。1秒生成に1分以上かかる。
色々遊んでいるとオリジナルのFramePackは入れた静止画を最後のフレームとしてその前を予測するモードであることを知る。最近出た順方向生成のF1モード版も同梱されていたことに気が付いたのでそれを試す。
他にも前後とか途中のフレームを画像で指定出来るFramePack-eichiってブランチも開発が進んでいるらしい。
色々分かったこと
.FramePackのインストール容量50GB超えるし、生成時に平気で10GBぐらいSSDを使う(キャッシュ?メモリキャッシュ?)を使っている。大容量の記憶容量が必要だ。
  • 長く生成しているとクオリティーが劣化してくる。長い動画を作りたい場合も3秒ぐらいの動画生成を繰り返し連結した方が良いのかも。FramePackもたとえ30秒の動画を作るように指示した場合も1秒または0.5秒単位(Framepack_eichiのWebUIにオプションがある)で生成しているっぽい。
  • ストーリー的なプロンプトはうまく動かない。現状を示すようなプロンプトしかダメっぽい。
  • ものすごく時間がかかる。動作中、メモリはフルまで使い、GPUもフル回転、しかしCPUは全く使っていない。メモリは48GBでも十分というわけではないのかも。電気代が心配だ
  • FramePackは良い感じのWebUIが用意されているが中身はコマンドラインベースでコマンドプロンプトでも簡単に使えるみたいなのでバッチ処理で多数の生成をしかけて放置とかも出来そう。
  • 生成される動画は入力した静止画と同じサイズで生成される。また画質の悪い静止画でも、縦横比を大きく拡大して処理させると勝手に綺麗な動画が生成されるのでアップコンバージョン的にも使えそう。
  • エ口もいける!局所が映っているようなものとか、セッ●ス関係の画像の生成はまったく動かない。倫理規制されているわけではなく全く学習データが無いせい?ただ、脱いだり、もんだりは問題も無く生成される。静止画を3秒の少しだけ動画にするだけで大興奮!!!!、これ顔部分に雑にほかの人の顔を張り付けて放り込んだら簡単にDeepFake作れるんじゃないか?極めて危険でそのうち制限かかりそうな気がする。いつ入手困難になっても良いように現在ダウンロード出来る実行パックは永久保管しておきたいところ。
うちのPCの記憶媒体は安い200GBのSATA接続のSSDなんだけど、SSDをM.2接続に変えたら少しは高速化しないかと考えている。これからAIで遊ぶ予定なので2TBぐらい買うか?でも高いなぁ・・・
過去の記事
.

Category:#AIが止まらない



■ ■ ■ コメント ■ ■ ■

いいっすね!=31
001 [05/12 23:08]ななしさそ★73:いや、2TのM.2くらい買った方が、生成系で動画まで手を出すなら。 (9)
002 [05/13 19:23]ふぇちゅいん(サイト主宰者) TW★96:2TBは高いので1TBにしようかと少しひよっていたところ。ですかねー (7)

名前 ↑B
[Xの該当記事にコメントを付ける]
コメント(※改行は省略されます)

※3回以上の連続書き込み不可
この記事のアクセス数:
FramePack

本カテゴリーで直近コメントが書かれた記事


→カテゴリー:#AIが止まらない(記事数:308)
本カテゴリーの最近の記事(コメント数)