愛の嵐 昼ドラ あらすじ, 認知症 薬 開発, 緋弾のアリア 33巻 特典, 宮部みゆき 時代小説 ぼんくら, アカギ 名言 なんJ, 色々 話す 英語, 馬宮西 高校 スラムダンク, カズ 俺 俺, 神様 の言うとおり 8巻, ナノユニバース アウトレット アウター, 大門未知子 ネックレス 2019, ふしぎ遊戯 玄武開伝 多喜子 死, リリックビデオ 制作 ソフト, 黒革の手帖 ドラマ 無料, JR紀勢 本線 運行状況, グッピー 産卵 兆候, キャンプ用品 中古 岐阜, ヨガ 呼吸 インストラクション, ガンダム グッズ 秋葉原, オンリー ユー アコギ, ジュビロ エンブレム 意味, 天使 精霊 違い, にじさんじ アプリ インストール, 彼女 好きすぎる 辛い, 17歳 歳の 差 ボンビーガール, サンシャインツアー 富士山 評判, I Miss You~逢いたくてしかたない, まりも パチスロ Wiki, パナソニック 茨木工場 跡地, クーパー T53 クライマックス, ハイドン 作品 特徴, アウトサイダー 漫画 無料, パトリック ダチア サイズ感, 茨田高校 合格 発表, ミニシアター 邦画 おすすめ, マ ドンソク 新感染, 空間 英語 スラング, 豊栄建設 評判 転職, 日本 靴ブランド レディース, 札幌市 サ 高 住 一覧, 遺伝子検査 ダイエット おすすめ, ダメな私に 恋し てください リターンズ ドラマ,

(Live2DアバターをFaceRigで動かすMOD) 4. なぜメッシュ(網)を設定するのかというと、目が閉じられるときに、この眉パーツが開いている状態から閉じている状態へとジワッと変化するのに必要だからです。眉パーツ全体が1つのパーツとして移動するのではなく、全体を複数の領域に分割した領域が、それぞれ閉じる状態へとジワジワ変形していくのです。私のような初めてLive2Dを触る人でも理解できるので、今からアバターを制作しようと考えている人にはおすすめの動画です。次に、各パーツに対してメッシュと呼ばれる網目状の領域を設定します。これは自動で設定してから微調整します。(下図)前の工程で書き出したPSDファイルを、イラストや漫画でよく使われる「CLIP STUDIO PAINT」(クリスタ)で開きます。Live2Dのことをもっと体系的に学びたい場合には書籍がぴったりです。左目の眉のメッシュだけを拡大表示してみるとこんな感じです。(下図)とは言え、VTuberのゲーム実況などで見られるように、キャラクターの正面視野で少し体が動く程度なら、むしろLive2Dの方が手っ取り早く作ることができます。また、アニメ的なビジュアルに仕上がるので、アニメ絵の表現と親和性が高いです。最近はブログのアイキャッチ画像なども、このAffinity Designerで作っていて、お気に入りのソフトウェアです。現在(2020/05/07)、50%オフの3060円で販売されています。今回は、どうやってLive2Dで動くアバターを作ったのかをざっくり説明したいと思います。全部読んでもらえれば、今流行りのアバター作成の概要を理解できると思います。機会があれば、金髪ツインテールの美少女キャラでアバターを作ってみたいですね。(作業量が膨大で死にそうですが)最初は私のように簡単な絵をLive2D化すれば、少しずつ作れるようになると思います。目指すはVTuberですね!流れを説明する前に、動くアバターを制作するキモとなるソフトウェアの「Live2D」について、もう少し詳しく説明しておきます。PRO版とフリー版には機能に違いがありますが、今回私が作ったようなアバター程度ならフリー版でも問題無さそうです。今回、私はトライアル期間に利用しました。ただし、静止画を変形させる方法だと、用意した静止画以外のキャラ部分(後ろ姿など)は表現できないので、部分的にしかキャラクターを表現できないです。このため、全方位からキャラクターの動きを作ろうとすると、モーションセンサや3Dソフトに軍配が上がります。おじさんになって趣味で始めたデジタルイラストをどこまで極められるか!?ツインテールが大好きです。照上の画像だとわかりにくいので、各パーツの位置と縮尺を変えて表示してみるとこんな感じ。(下図)本当は耳やヒゲも分けようかと思ったんですが、大変そうなのでやめときました。作業量が増えると挫けそうなので。「nizima」はなかなか面白い販売マーケットで、たとえばnizimaで誰かのイラストを購入し、それをLive2Dモデル化して販売する2次販売することもできます。Live2Dには各パーツをランダムに動かしてくれる「ランダムポーズ」というのがあります。これを実行した状態を動画ファイル(mp4、mov)に保存します。製品には大きく分けてPRO版とフリー版の2種類あって、初めて利用する人のために、PROの機能を42日間無料で使用できるトライアル版が用意されています。トライアル版は、無料体験期間が過ぎると、その後フリー版になります。(下図)まずは、前の工程で書き出したPSDファイルを、Live2Dで読み込みます。さて、このソフトで、ペンツール(ベクトル)を駆使して、ふっくらとした丸みのあるイラストを作成しました。次に、メッシュを設定したら、各パーツの動きの端点の位置などを記憶させます。各パーツについて、角度や開閉の設定が行われます。(下図)この動画は1~3まで(計4時間ぐらい)あるんですが、動画を見ながら一緒に操作すれば、おおまかにですが確実にアバターを作成できます。これを、次のソフトウェア「CLIP STUDIO PAINT」に渡すために、PSD形式で保存しました。特に喋ったりしないし単に動いているだけなんですが、結構いきいきと動いていてこれまでの苦労が報われる瞬間です。(音楽はYouTubeの素材を使ってます)すると、クリスタで作った各パーツのレイヤーが、体の部位としてLive2Dに取り込まれます。(下図の赤領域)Live2Dモデル用のイラスト作成や、Live2Dモデルの作成を面白いと感じたら、それぞれで収益化を目指すこともできますね。ちなみに、元イラストの作成はAffinity Designerでなくても何でもOKです。たまたまベクトルで絵を描きたかったので私はこのソフトを使いましたが、Photoshopでもクリスタでもよいです。ですが、実はあと少し作業をするだけで、VTuberのように自分の動きに合わせてアバターを動かすことが可能になります。まず、私は今回のアバター「あき山」の静止画を、ベクター絵としてAffinity Designerで作成しました。この作業が、Live2Dの中で一番作業量が多く、しかもわかりにくくて大変なところです。一番の山場です。デジタルライフをおもしろく!をモットーに、身の回りの雑記を中心に書いてます。たとえば眉パーツの場合、「目が一番開いている状態の形」と「目が一番閉じている状態の形」をそれぞれ記憶させます。こうすることで、その間をソフトウェアがなめらかに繋いでくれるのです。この前のGWに、以前からやってみたかったLive2Dによるアバター作成にチャレンジしてみました。前々からVTuberを動かすためのツールや、バ美肉(バーチャル美少女受肉)に興味があったので、まとまった時間があるGWにチャレンジしたというわけです。ポイントとなるのは、青線を引いた「3D制作よりも低コスト」です。この時点ではLive2Dで動いてる状態を動画にしただけなので、VTuberのように自分自身の動きに合わせてアバターが動くというものではないです。眉パーツ(目の上部パーツ)の輪郭に沿って網目状にメッシュが設定されています。Live2Dでのアバター作成に興味を持った人は、ぜひLive2Dの公式サイトからトライアル版をダウンロードして利用してみて下さい。各パーツがレイヤーごとにバラバラになるように作成したら、PSD形式でファイルを保存します。作るのは難しそうだけど動くアバターが欲しい!という人は、株式会社Live2Dが運営する「nizima」でLive2Dモデルを購入することができます。ちなみに、各パーツをレイヤーにしたPSDファイルを保存するために、私はクリスタを使いましたが、レイヤー状態でPSDを書き出せるソフトなら、Photoshopでも何でもよいです。従来は人間の動きをトラッキングするために、体中にセンサーを装着していましたが、この方法だと機材だけで数十万円もかかってしまいます。また、人体を3D表現しようとすると、3Dグラフィックソフトの知識が必要になります。頭部輪郭、左右の目(眉、白目、目玉)、鼻、上唇、口内、下唇、体、という感じに分けました。首は、頭を傾けたときに切れ目が見えないようにするために、少々長くしてあります。というわけで、Live2Dで動くアバターを作った手順をざっと紹介しました。この場合、イラスト制作者とLive2Dモデルの制作者の両方にロイヤリティが入るので、クリエイター同士が協力して売り上げを伸ばしていくこともできます。元々は単なる1枚絵だったイラストを、クリスタを使って体のパーツごとにレイヤーで保存していきます。割と地味な作業です。そこでモーションセンサや3Dソフトとは別の流れとして出て来たのが、今回紹介するLive2Dような静止画を変形させることで人間が動いているように見せる仕組みです。これだと機材は安価なソフトウェアだけなので、大幅なコストダウンを実現できます。今回作ったアバターは、髪が細かく動くような美少女キャラではないので、実作業の時間はそんなに長くなかったですが、上の解説動画を見ながら少しずつ進めたので、トータルで結構時間かかりました。めっちゃ疲れました。。。でもLive2Dで動く所まで完成したので満足です。Live2Dで動きを設定したアバターを、実際に動かしてみます。 steamは様々なソフトウェアやゲームが販売されているので、のぞいてみるだけでも楽しいですよ。このままでも、最初からアバターがいくつか入っていますので、まずは遊んでみると楽しいです。もともと使用しているペイントソフトがある方は、使い慣れたものを使いましょう。[…] 2172958 : ななしのよっしん : 2018/06/12 15:36https://tmamagoto.com/live2d-rig1/これで絵がうまい奴よろしく […]よくわからなければ、ヘッドセットにしておくと周囲のノイズを拾いにくく、自分の声はしっかり拾ってくれることが多いです。なんでも構いませんが、とりあえずやってみたい人には、安価で不良品などへの対応に定評のあるロジクールがオススメ。これを機にチャレンジしたい!という方には、まずは無料のGimpやFireAlpacaがオススメです。このモデリングソフト、機能こそ制限されますが、フリー版もきちんとあるのでご安心ください。また、有料のPRO版かフリー版かはCubismを起動した後に選択できるので、この時点では気にしなくて大丈夫です。自作アバターを作成するには、何らかの方法で用意したイラストを「Live2D」のモデルにする必要があります。FaceRigは、steamというプラットフォームで販売されています。そのモデリングソフトがLive2D Cubism Editorです。Photoshop、SAI、Clip studio、Gimp、FireAlpacaなどなど…左側の「Live2D Cubism3」のダウンロードページへ進み、このごろバーチャルユーチューバー、Vtuberが大変人気ですね。webカメラやマイクはもともと持っている方もいるかもしれませんが、そもそもFaceRigって何なの?という人もいると思うので、わたしが参考にしたページを貼っておきます。わたしも、もともとYouTubeで動画投稿や生放送をしていたこともあり、自分でもできないかな?と興味を持ちました。これならマイクもついているので、「まずはやってみたい!」というだけならこれ1つでもOK。音声の入力デバイスについては、わたし自身「これはいい!」というものにまだ出会えていないので、もし見つかったらそのときはご紹介します。nanacoのオートチャージで楽天ポイントが貯まる!?→できませんでした...FaceRig自体やカメラなどに少しお金はかかりますが、技術の割にはかなりお手軽に始められることがわかっていただけましたでしょうか?「FaceRigで自作アバターをとりあえず動かす」をやるために必要なものはこちら。自分で動かすためのイラストを描きたい場合は、ペイントソフトも必要です。ソフトはLive2Dの公式サイトでダウンロードすることができます。Live2D+FaceRigで自作アバターを動かすやり方 イラスト編【と...で、steamでfaceRigを購入していくわけなんですが、Live2Dを使用したい場合はsteamは季節ごとにセールも行っているので、特に夏や冬のセールだともう少しお安く手に入るかもしれません。 なぜメッシュ(網)を設定するのかというと、目が閉じられるときに、この眉パーツが開いている状態から閉じている状態へとジワッと変化するのに必要だからです。眉パーツ全体が1つのパーツとして移動するのではなく、全体を複数の領域に分割した領域が、それぞれ閉じる状態へとジワジワ変形していくのです。私のような初めてLive2Dを触る人でも理解できるので、今からアバターを制作しようと考えている人にはおすすめの動画です。次に、各パーツに対してメッシュと呼ばれる網目状の領域を設定します。これは自動で設定してから微調整します。(下図)前の工程で書き出したPSDファイルを、イラストや漫画でよく使われる「CLIP STUDIO PAINT」(クリスタ)で開きます。Live2Dのことをもっと体系的に学びたい場合には書籍がぴったりです。左目の眉のメッシュだけを拡大表示してみるとこんな感じです。(下図)とは言え、VTuberのゲーム実況などで見られるように、キャラクターの正面視野で少し体が動く程度なら、むしろLive2Dの方が手っ取り早く作ることができます。また、アニメ的なビジュアルに仕上がるので、アニメ絵の表現と親和性が高いです。最近はブログのアイキャッチ画像なども、このAffinity Designerで作っていて、お気に入りのソフトウェアです。現在(2020/05/07)、50%オフの3060円で販売されています。今回は、どうやってLive2Dで動くアバターを作ったのかをざっくり説明したいと思います。全部読んでもらえれば、今流行りのアバター作成の概要を理解できると思います。機会があれば、金髪ツインテールの美少女キャラでアバターを作ってみたいですね。(作業量が膨大で死にそうですが)最初は私のように簡単な絵をLive2D化すれば、少しずつ作れるようになると思います。目指すはVTuberですね!流れを説明する前に、動くアバターを制作するキモとなるソフトウェアの「Live2D」について、もう少し詳しく説明しておきます。PRO版とフリー版には機能に違いがありますが、今回私が作ったようなアバター程度ならフリー版でも問題無さそうです。今回、私はトライアル期間に利用しました。ただし、静止画を変形させる方法だと、用意した静止画以外のキャラ部分(後ろ姿など)は表現できないので、部分的にしかキャラクターを表現できないです。このため、全方位からキャラクターの動きを作ろうとすると、モーションセンサや3Dソフトに軍配が上がります。おじさんになって趣味で始めたデジタルイラストをどこまで極められるか!?ツインテールが大好きです。照上の画像だとわかりにくいので、各パーツの位置と縮尺を変えて表示してみるとこんな感じ。(下図)本当は耳やヒゲも分けようかと思ったんですが、大変そうなのでやめときました。作業量が増えると挫けそうなので。「nizima」はなかなか面白い販売マーケットで、たとえばnizimaで誰かのイラストを購入し、それをLive2Dモデル化して販売する2次販売することもできます。Live2Dには各パーツをランダムに動かしてくれる「ランダムポーズ」というのがあります。これを実行した状態を動画ファイル(mp4、mov)に保存します。製品には大きく分けてPRO版とフリー版の2種類あって、初めて利用する人のために、PROの機能を42日間無料で使用できるトライアル版が用意されています。トライアル版は、無料体験期間が過ぎると、その後フリー版になります。(下図)まずは、前の工程で書き出したPSDファイルを、Live2Dで読み込みます。さて、このソフトで、ペンツール(ベクトル)を駆使して、ふっくらとした丸みのあるイラストを作成しました。次に、メッシュを設定したら、各パーツの動きの端点の位置などを記憶させます。各パーツについて、角度や開閉の設定が行われます。(下図)この動画は1~3まで(計4時間ぐらい)あるんですが、動画を見ながら一緒に操作すれば、おおまかにですが確実にアバターを作成できます。これを、次のソフトウェア「CLIP STUDIO PAINT」に渡すために、PSD形式で保存しました。特に喋ったりしないし単に動いているだけなんですが、結構いきいきと動いていてこれまでの苦労が報われる瞬間です。(音楽はYouTubeの素材を使ってます)すると、クリスタで作った各パーツのレイヤーが、体の部位としてLive2Dに取り込まれます。(下図の赤領域)Live2Dモデル用のイラスト作成や、Live2Dモデルの作成を面白いと感じたら、それぞれで収益化を目指すこともできますね。ちなみに、元イラストの作成はAffinity Designerでなくても何でもOKです。たまたまベクトルで絵を描きたかったので私はこのソフトを使いましたが、Photoshopでもクリスタでもよいです。ですが、実はあと少し作業をするだけで、VTuberのように自分の動きに合わせてアバターを動かすことが可能になります。まず、私は今回のアバター「あき山」の静止画を、ベクター絵としてAffinity Designerで作成しました。この作業が、Live2Dの中で一番作業量が多く、しかもわかりにくくて大変なところです。一番の山場です。デジタルライフをおもしろく!をモットーに、身の回りの雑記を中心に書いてます。たとえば眉パーツの場合、「目が一番開いている状態の形」と「目が一番閉じている状態の形」をそれぞれ記憶させます。こうすることで、その間をソフトウェアがなめらかに繋いでくれるのです。この前のGWに、以前からやってみたかったLive2Dによるアバター作成にチャレンジしてみました。前々からVTuberを動かすためのツールや、バ美肉(バーチャル美少女受肉)に興味があったので、まとまった時間があるGWにチャレンジしたというわけです。ポイントとなるのは、青線を引いた「3D制作よりも低コスト」です。この時点ではLive2Dで動いてる状態を動画にしただけなので、VTuberのように自分自身の動きに合わせてアバターが動くというものではないです。眉パーツ(目の上部パーツ)の輪郭に沿って網目状にメッシュが設定されています。Live2Dでのアバター作成に興味を持った人は、ぜひLive2Dの公式サイトからトライアル版をダウンロードして利用してみて下さい。各パーツがレイヤーごとにバラバラになるように作成したら、PSD形式でファイルを保存します。作るのは難しそうだけど動くアバターが欲しい!という人は、株式会社Live2Dが運営する「nizima」でLive2Dモデルを購入することができます。ちなみに、各パーツをレイヤーにしたPSDファイルを保存するために、私はクリスタを使いましたが、レイヤー状態でPSDを書き出せるソフトなら、Photoshopでも何でもよいです。従来は人間の動きをトラッキングするために、体中にセンサーを装着していましたが、この方法だと機材だけで数十万円もかかってしまいます。また、人体を3D表現しようとすると、3Dグラフィックソフトの知識が必要になります。頭部輪郭、左右の目(眉、白目、目玉)、鼻、上唇、口内、下唇、体、という感じに分けました。首は、頭を傾けたときに切れ目が見えないようにするために、少々長くしてあります。というわけで、Live2Dで動くアバターを作った手順をざっと紹介しました。この場合、イラスト制作者とLive2Dモデルの制作者の両方にロイヤリティが入るので、クリエイター同士が協力して売り上げを伸ばしていくこともできます。元々は単なる1枚絵だったイラストを、クリスタを使って体のパーツごとにレイヤーで保存していきます。割と地味な作業です。そこでモーションセンサや3Dソフトとは別の流れとして出て来たのが、今回紹介するLive2Dような静止画を変形させることで人間が動いているように見せる仕組みです。これだと機材は安価なソフトウェアだけなので、大幅なコストダウンを実現できます。今回作ったアバターは、髪が細かく動くような美少女キャラではないので、実作業の時間はそんなに長くなかったですが、上の解説動画を見ながら少しずつ進めたので、トータルで結構時間かかりました。めっちゃ疲れました。。。でもLive2Dで動く所まで完成したので満足です。Live2Dで動きを設定したアバターを、実際に動かしてみます。

09.

アバターモデルの読み込み .