動画の用語解説

動画カメラ選びから考えましょう。

最初に考えることは「長時間の連続撮影が必要であるか」「手ぶれ補正機能はあたほうが有利」「ズーム機能、一眼動画のレンズは不得意です。ビデオカメラのほうが有利です」「オートフォーカス機能は一人で撮る方場合やドキュメントには必要です。じっくり撮るにはマニュアルで撮るのが基本です」「液晶モニターが可動式かどうかは、アングルを駆使するために必要です」

以上から必要なカメラを選んでから、下記に出てくる解像度や画素数を考えます。

一眼動画を始めた写真家さんや動画初心者の方からカタログには下記のような用語が書かれているが、

「イマイチ理解出来ない」「用語の意味が分からない」と質問されます。

 

この用語解説集は、テレビ、ビデオ、そしてPCで使われる動画に関する用語を集め解説しています。

 

デジタルカメラの撮影時の設定の基本。

​日本やアメリカではNTSC 30p/60i。ヨーロッパではPAL 25p/50i が基準です。フイルムの時代から続く映画は一秒間に24コマが国際基準ですのでデジタルでも撮影は24pで撮る人が多いです。

名称未設定.001.jpeg
スクリーンショット 2021-08-20 20.44.37.png
27461327238_86efb978cd_c.jpg

動画形式(フォーマット)とコーデック

 

動画形式とは、撮影した動画を保存するための形式のことで、「動画フォーマット」や「コンテナ」などとも言われます。

 

要するに撮影した動画素材を入れて”箱”で、この箱自体に様々な種類が存在しています。

 そのため、もし、動画を表示するためのプレイヤーが、その箱の種類(=動画形式)に対応していない場合、表示することができません。

動画データはサイズが大きく非圧縮状態ですとDVD1枚に数分程度しか保存できません。それだけではなくデータが大きいので古いパソコンだと映像が飛んだりして見られません。

そこで、コーデックという圧縮方法の決まりを作ってき、それに基づいて圧縮すればどのパソコンでもコーデックだけインストールしておけば視聴ができることになるのです。このコーデックの種類が多くそれぞれ長所、短所があります。

よく使われるのが、MP4とMOVです。

MP4とは?

MP4とは、動画を保存するために最もよく使用されるマルチメディアファイルのストレージフォーマットです。広く使用され、さまざまなデバイスに対応します。技術的には、MP4はデジタルコンテナファイルです。MP4ファイルは、通常、ほかのタイプの動画ファイルよりも圧縮されているため、サイズが小さいです。

MOVとは?

MOVは、動画やほかのマルチメディア用の別のタイプのデジタルコンテナファイルです。AppleがApple QuickTime Playerで使用するためにMOVを開発しました。MP4ファイルと同様に、MOV動画はMPEG-4コーデックでエンコードされています。

その他、PC上に保存された動画を見る際、何かしらのファイルを開いて見ていると思います。

 

・AVI(.avi)

Windowsで一般的な動画形式。実写映像からネット投稿まで用途は幅広い

・WMV(.wmv)

WindowsでAVIの次に一般的な動画形式です。これを使うならAVIのほうが汎用性が高く扱いやすいですね。

・MOV(.mov)

Macで一般的な動画形式。実写映像からネット投稿まで用途は幅広く編集用ソフトで多く使用されている。

・MPEG-4(.mp4)

上記の形式よりファイルサイズが軽く、かつ画質が良いため特にネットで動画を視聴するのによく使われ、高画質で動画を投稿したい場合はこの形式が良いです。

・FLV(.flv)

Flashというアプリケーションに最適化された形式。以前はネットで動画を視聴するのはこちらが主流だったが、MPEG-4より画質の点で劣るため、最近はあまり使われていない

 

センサーサイズ

 

カメラのフィルムにあたる光を受け取る器をイメージセンサーと言います。コンパクトデジカメとビデオカメラのセンサーサイズは一眼レフ(APS-C)とではサイズが面積比にして15倍も違います。

センサーが大きければ大きいほど多くの光を取り込めるため、写真の細部までクリアで表現力豊かな写真を撮影することができます。

一般論ですが、画素数が同じセンサーの画素数を増やすと解像度が上がり、より細かい被写体を区別することができます。その代わり1画素あたりの受光面積は減るため感度が悪くなりノイズが増えます。

つまり、センサーサイズが小さいと1画素あたりの受光面積が減り感度が低下し電気的に増幅するのでノイズが増えます。ノイズ処理技術で修正するため作られた感じの画像になってしまうのです。

代表的な圧縮形式(コーデック)を挙げておきます。

• AVCHD

AVCHDはパナソニックとソニーが基本仕様を策定したハイビジョン動画記録フォーマットです。映像には高効率符号化が可能なH.264/MPEG-4 AVC方式を採用、音声にはドルビーデジタル (AC-3) 方式(LPCM:オプション)を採用、多重化にMPEG2-TSを採用したものです。業務用から家庭用ビデオカメラと一眼カメラの動画等に多数使用されています。

 

・MPEG-1

ビデオCDなどで使用されているコーデック。今では一般的ではありません。

・MPEG-2

DVDや地デジ放送で使用されているコーデック。

・MPEG-4

携帯用コンテンツ等で使用されているコーデックです 。

・H.264

高画質の動画をネットで視聴する際に最近では一番ポピュラーなコーデックです。

H.265
H.265(High Efficiency Video Codingとも呼ばれる、略称HEVC)とは、動画圧縮規格H.264/MPEG-4 AVCの後継規格として生み出されたコーデックです。

圧縮技術の適正化が進められており、H.264と比べて約2倍の圧縮能力を備えて、H264とH265動画を比較したら、H.265はビットレートを 30~40% 落としても同程度の画質を保てますから、携帯端末向けの動画フォーマットとして採用される動きも高まっています。国内ではNTTドコモの「dアニメ」がH.265/HEVCへの対応を始めました。今後は続々と「H.265」に対応する、動画配信サイトやサービスが増えてきそうですね。

・DivXh.

264の次に軽さと良画質を誇るコーデックですが、一般的でありません。

・DV

テープ式のデジタルビデオカメラで使用されているコーデックです。

・Motion JPEG

デジタルカメラで使用されているコーデックです。

・Huffyuv

可逆圧縮と呼ばれる、劣化しない圧縮方法を用いるため、動画のキャプチャなどによく使われますが、動画ファイルサイズがかなり大きめになるので注意です。

・非圧縮

圧縮しない場合、圧縮しないぶん綺麗だが、動画ファイルサイズが巨大になります。

 

色情報

テレビのブラウン管は色情報を光の三原則であるRGB(Red、Green、Blue)で表示しますが、TVに表示する際にYUVというエンコード手法が使われます。反対にパソコンのディスプレイに表示するにはRGB形式に変換する必要があります。

詳しく説明すると、

Y:輝度信号U:輝度信号と赤色成分の差V:輝度信号と青色成分の差

の3つの情報で色を表す方式で、

例えば4:1:1等と表現されます。

この方式は人間の目が色の変化よりも明るさの変化に敏感な性質を利用して輝度情報(Y)に多くのデータ量を割り当てることで、少ない画質の劣化で済むのです。

MXF

MXFは、Material eXchange Formatの略称で、映像・音声を機器間やシステム間でやりとりする際のデータの持ち方を規定した規格。 1999年頃から業界団体のPro-MPEGフォーラム(*1)、米国SMPTE(*2)、欧州EBU(*3)が共同で開発してきたもの。

 

resize_img_menurecsize.jpg

フレームレート(一秒間のコマ数)

 

フレームレートとはfps(flame per second)とも呼ばれ、一秒間の動画のコマ数を指します。(1コマ=1フレームと呼ぶ)

動画は、一秒間に数枚~数十枚の静止画が連続して流れることで動いているように見せています。つまり、一秒間に流れる静止画(フレーム)の枚数が多ければ多いほど、滑らかな動きで見えるということになります。映画は一秒間24コマです。

日本のテレビ放送は30コマ、ヨーロッパでは25コマです。

 

だからと言って、フレームレートが高ければ高いほど良いというわけではありません。ネットで動画を視聴する場合、見る人のPC環境によっては、あまりに高いフレームレートだとPCの処理が追いつかずカクつき。また、ネットの回線速度にも影響し回線速度が遅いと同様にカクつきます。

エンコードの際に適宜なフレームレートに下げてから投稿することをオススメします。

 

よく使われるフレームレートの例

 

・59.94fps

ハイビジョン放送やXbox360、PS3などのゲームなど。ネットやPC上で視聴する動画には推奨できません。

・30fps

一番一般的なフレームレート。ネットで滑らかに見せるには十分です。

・29.97fps

TVなどの放送規格でよく使われるフレームレート。ここでは30fpsと変わらないと考えて下さい。

・24fps

映画やアニメで使われるフレームレート。

 

29.97や59.94など

の中途半端な数値のフレームレートについて

動画編集ソフトで「ドロップフレーム」という言葉を聞いたことがあるかもしれません。TV等の放送媒体に使われる映像では、数分に1フレームの割合で、ドロップフレーム(コマ落ち)が発生するため、このような中途半端な数値が使われています。

専門的になってしまいますが、TVなどの放送媒体に使う映像を作成する際は、この数値のフレームレートで作成しないと、音と映像がズレるなどの弊害が発生してしまいます。(これは個人的に作成した映像をDVD等に焼く場合も同じ)

数秒~数十秒の短い動画や、ネットに投稿する動画などPC上で動画を見る場合にはドロップフレームは発生しないので、30fpsで問題ありません。

 

 

インターレースとプログレッシブ

TVの映像やTVに映し出すゲームの映像などに使われる、映像の描画方式のこと。

インターレースはもともとブラウン管TV用に開発された方式で、走査線を上から一本ずつ飛ばしながら奇数番号順位に表示してから一番下まで行き、その後上に戻って偶数番号順に表示してない残り半分を表示する方法です。映像の1フレームを2つに分割することで、一秒30コマのテレビ放送は60コマの様になり動きを滑らかに見せています。

対してプログレッシブは分割せず、1フレームずつ(写真を一枚ずつ見せる様に30コマ)見せるため、多少カクつきを感じますが、インターレースより高精細に見得ます。

インターレースは映像を走査線で分割しているため、早い動きのある部分を止めてみるとギザギザが出たり、エッジがチカチカしてしまう場合があります。

 

 

 

ColorEdge4K_img01.jpg

Rec.709とは

ITU-709はHDTV向けの規格で、より多くの人が同じような映像を見られるように、再現できる色域はかなり狭いです。 つまりパッと見の鮮やかさはありますが、色飽和しやすく、より深い色の表現などはできません。 鮮やかな色の中にある微妙な階調などは潰れてしまいます。 ある意味割り切った設定になっています。総務省が推進し、2018年に本放送開始予定の8Kスーパーハイビジョン放送では、より豊かで鮮やかな色表現ができる「Rec.2020」と呼ばれる色域(表現可能な色の範囲)が基準となり、近年Rec.2020色域で撮影できる機器が増えています。

 一方、現行のテレビ放送(フルハイビジョン放送)は、Rec.2020より狭い「Rec.709」と呼ばれる色域を基準にしています。このため、Rec.709色域では、Rec.2020色域で撮影した映像コンテンツの色を表示できない場合があり、制作者はこの点に注意してコンテンツを制作する必要があります。

面解像度にたまに出てくる、

1080iとか720pって何?

1080や720は画面サイズの縦幅(ピクセル数)の略です。

1080=1920×1080、1440×1080

720=1280×720、960×720

を表しています。

「i」はインターレースの略で「p」はプログレッシブの略になります。

簡単に言えば、インターレースよりプログレッシブのほうがより高画質になります。

動画の画面サイズ (=解像度)

 

動画とは、一般的にどれぐらいの大きさでしょうか。ここで言う大きさとは、ファイルサイズ(容量)ではなく、動画の画面のピクセルサイズ(横×縦)についてです。

動画は一定の大きさの静止画の連なりでできているので、当然画面サイズが大きければ大きいほど最終的な動画のファイル容量も大きくなります。特に、HD(ハイビジョン)映像は大きく綺麗なぶんPCへの負荷も高くなるので、扱うには高スペックPCが必要になります。

 

ネット上に投稿する際には、画面サイズは自由な場合が多いです。ただ、縦横比は以下の2パターンのどちらかにしたほうが良いでしょう。動画の縦横比とは、横幅(ピクセル数)×縦幅(ピクセル数)の比率となり、アスペクト比とも呼ばれます。

ここでは、以下2パターンの縦横比を基準に、それぞれよく使われる画面サイズについて簡単に解説します。

 

16:9

いわゆる横長、ワイドスクリーンサイズ。最近の液晶TVやPCの液晶モニタは殆どがこちら。

HD(ハイビジョン/ハイディフィニション)の場合は必ずこちらの縦横比になる。

 

よく使われる画面サイズの例

4K(8K)

ハイビジョンはHD(High Definition)とも呼ばれ、解像度が1,280×720(92万1,600画素)であることを指します。「フルハイビジョン(フルHD)」は1,920×1,080(207万3,600画素)、「4K」はさらに高くなり、3,840×2,160(829万4,400画素)で「8K」ともなると、解像度は7,680×4,320(3,317万7,600画素)

ハイビジョン(HD)→フルハイビジョン(フルHD)→4K→8Kの順に画像がきめ細かく、きれいに表示されます。8Kは「スーパーハイビジョン」とも呼ばれ、フルハイビジョンの約16倍の解像度

画素数は7680×4320(4320pと呼ばれることもあります)で、3317万7600画素。これは4Kの4倍、FHDの16倍にも相当する画質です。

家庭で「究極の映像の臨場感」を実現するために生まれた8Kは、2017年に民生用のものが登場し、2018年に8K衛星放送が開始。現在、各テレビメーカーでは8Kテレビの製造に力を入れており、徐々に製品数を増やしています。

なお8Kは現在最高画質で「高画質テレビの最終形」とも言われています。

・1920×1080 (フルHD)2K

一般的にフルハイビジョンと呼ばれており、現在の主流画質がFHDです。

これまで「2K」と呼ばれることもありましたが、「2K」は後から別の画質として出てきたため、現在ではこの呼称で呼ばれることはなくなりました。

端子で言えばD3、D5やHDMIがこれにあたる。

FHDと2Kが混同されて使われていることも多いため、注意が必要です。本来、FHDのディスプレイであるにもかかわらず「2K」と表記されていることもあるため、解像度(画素数)でFHDのことなのか2Kのことなのかを見極めるようにするといいでしょう。

・1280×720 (HD)

フルではないがハイビジョンで720Pとも呼ばれます。端子で言えばD4が該当。ネット上のHDサイズは殆どがこの大きさ。

・720×405 (SD)

小さめの16:9比率の動画をネットに投稿する際などにオススメ・640×360 (SD)小さめの16:9比率の動画をネットに投稿する際などにオススメ

・720×480 (DV)

DVワイドスクリーンというTV等の放送媒体専用の規格。ネットに投稿する際には使用しないこと。

・720×486 (D1)

D1ワイドスクリーンというTV等の放送媒体専用の規格。ネットに投稿する際には使用しないこと。

4:3

以前まで最もポピュラーだった縦横比。例えば昔のブラウン管TVやPCモニタなど。

SD(スタンダード)放送の場合はこの縦横比。

・640×480 (SD)

4:3比率の中では一番一般的なサイズ。ブラウン管時代のテレビはこの大きさで。

 

HDとSDの違い

HD=ハイディフィニション、SD=スタンダードディフィニションの略です。

HDとは高精細度映像のことを指し、簡単に言えばハイビジョン映像のことです。最近で言えば、地デジやBSハイビジョン、Xbox360やPS3などのゲーム、YoutubeやzoomeのHD画質の動画等を指します。

SDはHDに対して以前からあった従来の画面サイズで、地上アナログ放送やPS2、Wiiなどのゲーム、HD画質でないYoutubeの動画などを指します。

HD=ハイビジョンで綺麗で大きい、SD=HD以前の一般的な大きさ と覚えておけば良いでしょう。

 

 

AACとMP3とは

MP3やAACは音楽をデジタルファイルにしたときの形のことです。それぞれ特徴があり、共通して言えるのはどちらも非可逆圧縮の音源であることです。

AACファイル(Advanced Audio Coding)はMP3などと同じように圧縮音声ファイルの一種です。聴感上の音質を音楽CD並みに保ったまま非圧縮のファイルと比べてサイズを1/20程度まで小さくすることができると言われています。

MP3との比較

AACはMP3よりも圧縮性能が優れています。ビットレートを同じにした場合、AACの方が聴感上の音質が良いと言われています。別の見方をすると、聴感上の音質が同じな場合、AACの方がファイルサイズを小さくすることができます。この面もMP3に代わるフォーマットとして注目されている理由の一つです。

ビットレート(一秒間のデータ量)

ビットレートは1秒間に送受信するデータ量を表しており、 単位は「bps」または「kbps」。

単純にビットレートが高ければ1秒間に多くの情報を送ることができ、その結果として描写の精細さが多く高画質になる。ただし、ビットレートの値が高くなれば、ファイルサイズも大きくなります。

DVDプレーヤーで再生可能なDVD-Video形式で動画を保存する場合、解像度を720 x480にすれば音声で320kbps使用したとして、動画のビットレートは4000kbps程度になる。DVD-Video形式での最高画質は9800kbps(9.8Mbps)ですが、このビットレートだと1時間程度の動画しか保存できないことになります。

HD(地デジ)の最高ビットレートは15000kbps(15Mbps)

BD-Videoの最高ビットレートは54000kbps (54Mbps)

 

MPEG4 AVCコーデックを採用しているフルHD仕様の最新デジタルビデオカメラでは、最高画質での録画は解像度が1920 x1080で、ビットレートは25000kbps(25Mbps)になっています。この仕様で1時間30分ほどの録画ファイルは16GB(公表値)になります。

 

 

 

 

PanasonicのGH5の公式サイトに掲載されているスペックです。見てみると、圧縮(エンコーディング)にはALL-Intra(ALL-I)、Long GOP (IP)、Long GOP(IPB)の3種類があるのがわかります。Long GOPと呼ばれるものは、IPBとIPの2種類。

 

ALL-IとIPB

GH3にある動画記録の二つの圧縮形式。より高画質に記録できるのが「ALL-I」。1フレーム単位で圧縮するイントラフレーム方式で、1フレーム単位でデコード、再エンコードを行うので、カット編集や映像の切り出しに適しています。

一方、長時間の記録に向いている「IPB」は、フレームの前後を参照し、差分を検出する差分圧縮方式です。高圧縮でファイル容量が軽いのが特長です。

ALL-IとIPBをまとめると、

  • ALL-Iは、十分なビットレートが与えられていればGH5の圧縮形式では最高品質ということ

  • ALL-Iは普段使っている中間コーデックに使われている低圧縮形式であること(ProresやDNxHDを含む)

  • PBフレームを使った書き出しは、最終的な放送に向いていること

  • 編集時の軽さを重視する場合はALL-Iで、ファイルサイズを抑えたい場合はIPB/IP

  • キーフレーム間隔(Iフレーム間隔)は狭くなるほど、GOP単位が小さくなり、高画質になること

  • キーフレーム間隔が15を超えると、Long GOPと呼ばれること

 

Log撮影​とは一般的に

  • ダイナミックレンジが広い、ハイライトが飛びにくく、シャドーがつぶれにくい。

  • 眠くて彩度が低いし、適正露出がわかりにくい。

  • 最終仕上がりがイメージできないので照明が決められない。

  • LOG映像を利用してみたいけれど、ワークフローをどのようにハンドリングすれば良いかがわからない

  • 「LOGを使うとダイナミックレンジが広い」ですが

カメラが出力するファイルはMTS、MOV、MP4(h.264)と様々ありますが、カラーグレーディングに適したデータ形式と適さないデータ形式があります。

 

QuicktimeやMXFで記録するときにLogエンコードメディアとRec.709(レック709と読む)のどちらかを選択します。

logエンコードメディアで撮影した映像はくすんだ色(眠い色と呼ばれています)で、そのまま編集することはできません。
しかし、logエンコードメディアは調整できるラチチュードが最大限保持されるように記録しますので、カラーグレーディングに最適の映像となります。

もし、これに対してRec.709で撮影した映像は普通のビデオと変わらない色です。
Rec.709で撮影した映像は調整可能なラチチュードがかなり削減されていて、もしRec.709のクリップに過度な露出補正や色補正をしようものなら画質がかなり劣化します。

LUTとは 

ルックアップテーブル(LUT)とは、入力された値に対して出力値を割り当てるテーブルです。

Log撮影データに当ててカラーグレーディングするときにLUTを当てると言います。

LUTを使用すると、デジタル画像に特性曲線を簡単に適用でき、その計算も素早く行うことができます。 ... IDS社のuEyeカメラは、全てのカメラモデルでLUT機能を使用した特性曲線を適用することが可能です。

05.jpg

​ガンマとは

ガンマはブラウン管テレビ時代の遺物だ。 ... そこで、映像信号にブラウン管の発光特性と真反対のガンマ(γ=0.45)を掛け、発光特性をリニアに補正しようとするのが「ガンマ補正」だ。 アナログ時代のテレビでは、全てのテレビ受像器にガンマ補正回路を搭載すると高価になるため、撮影時にカメラ側で補正するシステムを採用していた。

タイムコードとは?

LUMIXのGHシリーズはタイムコードに対応し業務用ビデオカメラと同様の機能がついています。カウントアップは「レックラン」と「フリーラン」から選べます。「レックラン」は、動画撮影中のみカウントを進め、1台のカメラで撮影した動画を編集ソフトのタイムライン上に並べるときに使用。一方「フリーラン」は、設定スタート時間から常時カウントを進行するので、いつの撮影素材かを、すぐに確認できます。

複数のカメラでの撮影時に、それぞれの時刻を同期させておけば、編集ソフトのタイムラインに撮影時刻順で並べられ、編集作業がスムーズに行えます。

「SMPTE:Society of Motion Picture and Television Engineers(映画テレビ技術者協会)」が世界標準規格として制定したもので、日本が採用している「NTSC:National Television System Committee)」規格では、「00(時間):00(分):00(秒):00(フレーム)~23:59:59:29」で表されています。

 簡単にいうと、VTRでは録画をする際に時間経過に従って「時、分、秒、フレーム」の情報が、映像や音声の情報と一緒に記録されております。

 

ケーブルの端子の種類

TVやゲーム、AV機器やPCなどを接続によく使われる映像端子の違いを解説します。

アナログ時代には多くの端子がありましたが、デジタルではHDMIが腫瘤です。

■コンポジット端子

アナログです。赤、白、黄からなる最も一般的な映像端子。赤=右音声、白=左音声、黄=映像

■S端子 

アナログです。コンポジット端子の映像のみをグレードアップした端子。コンポジットよりやや綺麗

 

■D端子

アナログです。現在D1~D5まであり、端子の形状は同じだが、やりとりできる映像が大きく異なるので、必要に応じて対応したD端子を使用する必要があります。基本的にはD1~D5へ上がるごとに高画質です。

 

■HDMI端子 

デジタル用です。現行最も一般的な高画質伝送端子。音声も一緒に送れ、デジタル方式なため当然D端子より画質が良い。

 

SDI 端子

(Serial Digital Interface)とは、主に業務用映像機器で使われている高速シリアル・インターフェース規格のこと。非圧縮のデジタル映像信号とデジタル音声信号を、1本の同軸ケーブルで送ることができる。同軸ケーブルの特性インピーダンスは75Ω。BNCコネクタを使う。アナログ映像信号の伝送に使っていた既存のインフラをそのまま利用できる点が特徴だ。 

 これまでSDIのアプリケーションと言えば、テレビ局やテレビ中継現場、劇場などで使われる業務用映像機器が圧倒的に多かった。しかし、最近では適用用途が広がっている。例えば、セキュリティ機器や医療用電子機器、デジタル・サイネージ、テレビ会議システム、シアター(映画館)などである。

■DV端子

(IEEE1394、FireWire、i-Linkなどとも呼ばれるが全て同じもの)

デジタル用です。一時TVやHDレコーダーにも搭載されたがHDMIに代わりつつある音声も一緒に送れる。

デジタルビデオカメラで撮影した動画をPCに取り込む際によく使われていた。