2026-03-19 10:57:50 +00:00
2026-03-19 10:56:25 +00:00
2026-03-19 10:55:10 +00:00
2026-03-19 10:51:45 +00:00
2026-03-19 10:57:50 +00:00

Photogrammetry_PicMaker

ワリペンさんのこちらを最適化したもの

ジオメトリ 練習用に1回フォトグラメトリしたいとか、そういうこと
だとすればソフトはこれか
https://www.realityscan.com/ja
これ(360°カメラ標準対応だけど有料ソフト。体験期間あり)
https://oakcorp.net/agisoft/
がメジャーかな

RealityScanを使うのなら、360°写真の各方向への切り出しが必要になります
以前作った資料があるので貼りますね
3DGSの資料ですが、大枠は似たようなもんです

そういえば360°動画からのガウシアンスプラッティングのやり方書かんと(義務感)

1.
360°動画をVLCで秒おきにキャプチャして、静止画として保存する
https://www.mizutan.com/wordpress/?p=11781

2.
360画像を元に、各方向への画像として自動保存する
ChatGPTにスクリプト書いてもらった

方向だとうまくカメラアライメントできない事が多いので14方向
自分が写っている方向はアライメントの邪魔なので削除(ファイル名で絞る)
なので現状では11方向のカメラ画像を使用している
もっと減らせる可能性あり

3.
MetaShapeかRealityCapture(RealityScan)に画像データを食わせて、カメラアライメントだけやる
うまくいったら、Colmapとしてエクスポート
https://lilea.net/lab/how-to-use-postshot/
or
https://lilea.net/lab/metashape-to-realitycapture-via-colmap/


4.
PostShotで3DGSデータを作成
https://oakcorp.net/archives/19074
colmap.txtとsparseフォルダと写真が格納されたimegeフォルダをPostshot にドラッグ&ドロップ

5.
3DGSデータをVRChatのワールドにインポート・調整して公開
https://lilea.net/lab/how-to-use-vrchat-gaussian-splatting/

前提条件

  • ffmpeg がPATHに入っていること
  • 顔ぼかしを使うなら opencv-python が入っていること

実行方法

  uv run src/main.py extract <video_file>
  uv run src/main.py blur <output_folder>
  uv run src/main.py convert <output_folder>
  uv run src/main.py pipeline <video_file>

  例:

  uv run src/main.py extract video.mp4
  uv run src/main.py blur video_145frames_0min4sec_20260122_220022
  uv run src/main.py convert video_145frames_0min4sec_20260122_220022
  uv run src/main.py convert video_145frames_0min4sec_20260122_220022 --dense
  uv run src/main.py pipeline video.mp4
  uv run src/main.py pipeline video.mp4 --blur --dense
Description
No description provided
Readme MIT 44 KiB
Languages
Python 100%