お笑い技術論
| |
概要
|
![]() |
私の趣味で結構はまっているのに、オーディオとカメラがあります。この両方の趣味に共通の特徴があります。 それは、とても技術的な話題なのに、ある一線を超えると、なんだか、嘘みたいなお話がまかり通ることです。 たとえば、オーディオなんかですと、20-20KHzの再生周波数帯域では不十分だ…という話題があります。で、モバイルオーディオ用に20-80KHzまで再生できるヘッドホンが開発されたり。でも、モバイルオーディオ機器って、音の圧縮原理の関係で15KHz以上の音って、それほどまともに入っていないので再生できないですし、だいたい、良く使われているデジタルアンプの出力なんて、高周波ノイズが入りやすいので、そんな再生周波数で音にしたら、アンプの原理的なノイズまで再生しちまいそうです。でも、極め付きの面白いところは、医学的には人間の耳は20KHzを超えた音って、どうやって聴いているのかわからない…というか、聴けるはずがない…とわかっているのです。こじつける為に、20KHz以上の信号があると、脳波に違いが…という、脳科学の応用をしています…だから、脳科学がトンデモ科学に分類されるのですが…こじつける方もこじつける方です。 簡単に説明してしまうと、この世界には、とても変な信仰心があり、それを利用したマーケティングが行われて、宣伝されているだけです。 これって、カメラの世界でも、全く同じです。 ここでは、カメラの世界でおなじみの「画素」のお話をしながら、恐らく皆さんが、知ってるハズなのに、実は知らなかった…という、マーケティング主体の技術論の生み出した、「お笑い技術論」を、まじめにご説明したします。 まじめな文体でありながら、とってもおかしい、技術者の笑い話をお楽しみください。実は、書きながら、笑っているのでした、私も…(^^)v | |
2007/01/21,22
|
■ 1000万画素以上の写真しか受け付けない…(^^?? |
あるカメラマンの人と話していて、とっても面白い話を聴きました。
「最近は、雑誌社は1000万画素以上のカメラの写真でないと受け付けないんですよ」
「へー、そうなんですか…1000万画素ねえ、それってハッセルブラッドのマルチショットみたいな本当の1000万画素以上の絵のことですかねー、それとも普通のデジカメの話題ですか?」
「普通のデジカメなんですよ。私は写真としてよければ解像度はそう重要ではないと思うんですけどね」
「そうですよね、大体、普通のデジカメの1000万画素…って、原理的には125万画素と書くべきものですからねー。普通のデジカメで画素数の指定をしても、困りますよね…なにも知らないのか、ジョーク好きなのか…メーカーから手を回されているのか…(^^;;;」
デジタルカメラの世界って、技術的に考えると、真面目ですかい…(^^?、という話題が横行してます。
利害の関係からか、本なんかとか、論文なんか見ても、知っていても意図的に黙っている話題が多すぎるような。
ついこの前に感心したのが、メーカーの言いたい放題に注意を喚起したデジカメの評価サイトの態度でした。各メーカーのマッーケッターが売りたい一心で、'image stabilization' とか、'electronic Anti-shake function' とか、'Anti-blur technology' だとか、お笑いな用語を、www.dpreview.comでは、使用を考えると表明したのでした。
なら、私も、あんまりジョークみたいな技術の話題は、少し突っ込みを入れちゃおうかなと思ったのでした。
売りたい一心で、いろいろと考えているのでしょうが、いくらなんでもと流石に気になるもので…でも、業界関係者には怖くて話題に出来ないと思うので、全く関係がない立場にいる私から、ここでご説明させていただきます。
■ デジタルカメラの原理からみたら…デジカメの画素って、本当に画素なの…(^^? |
デジタルカメラを使うようになって、とても不思議に思ったことがあります。それは、撮影した絵が、とてもデジタルの雰囲気を持っていなかったことです。
フォーカスが合ってるのに、ちょっとポケッとした絵になります。
次のサンプルをご覧ください…LEICA D-LUX 2で撮影したものです。この機種は、Panasonic LX1と同じハードウェアです。
LEICA D-LUX 2の絵で比較
| |
![]() | |
この絵の一部を以下に原寸大で示します
| |
![]() | |
絵をご覧になっていかがでしょうか…全体的に甘い感じになっています。
この感じが、とても違和感を感じた原因でした。
デジタルであれば、もうちょっとカチッとした絵になっていても、おかしくないと思ったのでした。悪い意味で、アナログ的です。とても不思議でした。
で、こんな感じのことが続いて、思いました…デジタルカメラの原理って何だろう…。
こうした、当たり前の事が気になるのは、私が技術屋だからなのだと思います…それも、ガチガチのIT屋ですので、誰でも知っているはずの話題なのですが、それでも基本に立ち返って、不思議に感じてしまいます。
同じように、rawデータ現像ソフトにより、現像結果が全く異なることも不思議でした。
色味が違うだけではなく、絵そのものが全く異なるのです…デジタル技術という感じが全くしないのが、デジタルカメラなのでした。
この答えを知りたくて、専門書なんかを結構読んでみました…で、複数の本に「標本化定理に基づく」と書いてあり、家で笑い転げていました…(^^)
専門書を読んで、笑い転げるというのは、仕事柄からなのですが、笑った背景は簡単です。
デジタルカメラで、標本化定理にしたがって作られている機種なんて、いくらもないからです。
私は、物凄い費用と手間をかけて開発されているデジタルカメラって、ずいぶん危うい売り方をしているんだなーと、実感してしまいました。
この話題から、順を追ってご説明しましょう。
■ 標本化定理…デジタル化の基本原理 |
標本化定理(サンプリング定理)は、1928年にナイキストにより発見され、1949年にシャノンなどにより証明されたもので、アナログ信号をデジタル信号にする際に、どれだけのデータをデジタル化すれば元のアナログ信号に戻すことが出来るかを明らかにしたものです。
答えはとても覚え易くて、原アナログ信号の2倍以上の周波数で標本化することが出来れば、現信号に戻すことが可能です。
![]() |
![]() |
Harry Nyquist
1889-1976 |
Claude Elwood ShAnnon
1916-2001 |
これは、CDなどでそのまま使われている原理です。
CDは、20KHzまでのアナログ信号をデジタル化して収録するために、2倍以上の周波数である、44.1KHz(1秒間に44100回という意味です)で16ビットにサンプリングしています。40KHzでない理由は簡単で、デジタル信号からアナログ信号に戻す時に、ローパスフィルター回路が必要ですが、20KHzから急峻にカットする回路にすると特性が乱れるので、若干の余裕が仕様に含まれています。22.05KHzまでの信号を組み込むためのものではありません。
CDの話題は、こちらで詳しく説明してますので、ご興味がある方はどうぞ…。
波を記録する話題が、標本化定理のすべてですが、デジタルの映像を記録する話題に、なぜそのまま適用できるのでしょうか…簡単に、ご説明します。
実は、デジタルカメラの内部というのは、イメージセンサのアナログ出力をそのままデジタル化して取り出すことから始まるのです。デジタルカメラの、情報の流れは、以下のようになります。
ここで、話題にしたいのは、イメージセンサの出力にあるAD変換/アナログ-デジタル変換のことです。
イメージセンサというのは、以下のようなものです。
フルフレーム Kodak KAF-10010CE
(LEICA Digital-Module-Rが使用)
| |
![]() | |
構造
|
フルフレーム型CCD/正方形ピクセル |
ピクセル数
|
3916(水平)*2624(垂直)=10.7M |
有効ピクセル数
|
3876(水平)*2584(垂直)=10.0M |
ピクセルサイズ
|
6.8μm(水平)*6.8μm(垂直) |
イメージサイズ
|
31.7mm |
チップサイズ
|
29.0mm(水平)*19.1mm(垂直) |
アスペクト比
|
3:2 |
サチレーション信号
|
40K electron |
外部量子効率(RGB)
|
0.34, 0.40, 0.36 |
全センサーノイズ
|
17 electoron |
暗信号
|
0.04mV/S |
暗電流倍化温度
|
5.8℃ |
リニアダイナミックレンジ
|
67dB |
CCD転送効率
|
>0.999995 |
ブルーミング抑制@4mS総合時間
|
1000x飽和露光 |
最大データレート
|
28MHz |
このイメージセンサ、出力はアナログで出ます。
以下の図の、左下にある左向きの三角形の頂点から出ている「VOUT」が、アナログ出力のことです。この三角形の意味は、アンプ/増幅回路のことです。
つまり、映像素子というものは、音と同じように波になったアナログ信号が出るわけです。デジタルカメラは、この信号をデジタル化して記録して、それをrawデータ形式として記録したり、絵のデータ形式であるJpegやTiffに変換して記録したりするわけです。
この時に、実は、違いがあります。デジタルカメラでは、出力のアナログ波形を記録するわけではありません。
イメージセンサは、受けた光子の数に対応した電子を蓄えています。その内容が電圧として出力される構造なので、その値をデジタル化して記録します。ですから、ちょっとやり方が違うわけです。この違いがあるので、以降で説明しますが標本化定理の適用は、波形に対するものではなく、絵の状態そのものである空間周波数に対するものです。ですから音に対するものとは、ちょっとだけ違います。
ところで、イメージセンサとは、どのようになっているのでしょうか…上の図にもちょっと載っていますが、イメージセンサは、3原色(かその補色)で光を受けています。ひとつのセンサがひとつの色を担当しています。というか、センサの上に、その色の光を通すフィルタが用意してあります。私達が知っている、「色」は3つの原色を組み合わせたものですので、センサひとつひとつでは私達の知っている色ではありません。
センサの色の配置は、Kodakが開発したベイヤー配列と呼ばれる配列が、現代の主流です。正方形に配置した4つのセンサで一組として考えるもので、g(緑)-b(青)-r(赤)-g(緑)で1組をなしています。言い換えると、赤と青は全体の1/4のセンサが受光しており、緑は1/2のセンサが受光しています。
つまり、1000万画素のデジタルカメラで言えば、250万画素が赤と青、500万画素が緑です。
標本化定理では、「サンプル」の量がどれだけあればよいのかを明らかにしています。この場合の「サンプル」とは、ベイヤー配列のひとつの組のことになります。これでお気づきだと思いますが、そうだとすると1000万画素というのは、実は250万画素であるということになります…ちょっと不思議ですね。
この説明は、かなり必要です…調べてみたところ、本当のところはわからない点がありますが、ある程度こうかなという感じがあるので、ご説明をしていきたいと思います。
■ サブピクセルがピクセルに昇格したデジタルカメラのカタログ…(^^; |
デジタルカメラで言う「画素」、英語では「pixcel/ピクセル」と言います。
本来の意味では、ひとつの意味を成立している絵を構成している点のことです。
![]() |
1つのピクセルが3つのサブピクセルから構成されているLCDディスプレイ |
たとえば、今皆さんがご覧になっているディスプレイは、1画素/ピクセルで、RGB(赤/緑/青)が、それぞれ8ビット(2の八乗、256です)の諧調度をもっており、256*256*256=16777216色の色を表現できる仕様となっています。具体的にvgaの液晶ディスプレイで説明しますと、解像度が640*480ピクセルです。実際には、画面の1ピクセルは、RGBの3ドット(サブピクセル)から構成されていますので、640*480*3の光点があるわけです。
具体的には、307200ピクセルで、rgbの各サブピクセル数が307200サブピクセル、総サブピクセル数が921600サブピクセルです。
こうしたピクセルの数え方は、ごく普通のことで、コンピュータの中では1つのピクセルはRGBのすべてのデータを保持しています。
この理屈で、サブピクセル4つを使用するベイヤー配列を採用しているデジカメを考えると、1000万画素というのは、実はサブピクセル数ですので、本当のピクセル数は250万画素に過ぎない…ということになります。250万画素というと、私が普段使用している24インチのディスプレイが1920*1200=2304000ピクセルですので、ちょっと大きい解像度ある…ということになります。
しかし、デジカメのカタログを見ると、ぜんぜん違うことが書かれています。
![]() |
Canon EOS 5D
35mmフィルムサイズのCMOSセンサーを搭載してます |
たとえば、Canon eos5dは1330万画素で、rawは4368×2912画素であると書かれています。この機種は、ベイヤー配列のCMOSを搭載しているのですが、なぜサブピクセルをピクセル/画素と書くのでしょうか…。
実際のところ、eos 5dの写真を見ると、Canonの仕様どおりの解像度で写真は出力されていて、たしかにピクセル数と一致してます。
このような結果になっているので、ピクセル/画素と説明しているようです。そして、ここには、デジカメ業界の暗黙の合意があるみたいです。
つまり、このような処理をする限り、サブピクセルを、ピクセルと説明しても良い…という合意があるようなのです。
そもそも、なぜベイヤー配列を採用しているセンサーを使用しているデジタルカメラから得られる絵が、ピクセル数で絵が作られず、サブピクセル数と一致したピクセル数の絵になっているのでしょうか…
この背景は簡単で、デジタルカメラはサンプリング定理にしたがって処理をしていないからです。
デジタルカメラがイメージセンサーから絵を生成する方法は、以下のような図で説明できます。
イメージセンサが取得したデータ(左端)は、gは50%のサブピクセル、brはそれぞれ25%のサブピクセル数があります(左から2番目)。
このそれぞれには、データのない場所があります。この場所の部分の値を想定して設定して設定し(右端から2番目の色違いです)、その補完された結果を合成して、実際のピクセルとして作り出し、絵にしているわけです。
このような処理により、サブピクセル数とピクセル数が一致するようになっているわけです。
私は、不思議に思っていろいろと読んだ専門書の中で、「標本化定理/サンプリング定理が原理である」と書いてあるものを見て、笑い転げてしまったのでした・・・だって、情報理論では、考えられない「こじ付け」だからです。
率直なところ、このような技術的/理論的背景がわからない開発者は、普通に教育を受けている人であれば、いるはずはありません。想像ですが、このようなこじつけによる表記がまかり通る理由は、暗黙の業界の常識であるのだと思います。この方が売りやすいからでしょう。
ただ、あまりにも、他の世界、特に私が仕事をしているitの世界からすると、めちゃくちゃなやりようなので、やはり、困った習慣であるかと思います。
なぜならば、これらの説明のこじつけのために、まともに作っている製品が、違いを説明しにくくなり、その意味が伝わらなくなってしまうからです。そうした例をご紹介しようかと思います。
ただ、このご説明の前に、もうちょっと、デジタルカメラの仕様の話題を続けたいと思います。だって、カメラ雑誌とか、いろいろと、めちゃくちゃな内容を平気で書いていて、メーカーよりも困る話題を平気で書いていたりするからです。
きっと、私みたいな門外漢が書かないと、誰も話題にしにくいのでしょう…(^^;
■ なんでベイヤー配列なの |
ベイヤー配列は、アメリカKodak社のベイヤー博士が発明したものです。アメリカの特許番号は、3971065、以下のように概要が説明されています。wikipediaへのリンクです。
![]() |
錐体細胞と3種類のイオドプシン
|
この図では光は下側から届き、上側の視覚細胞に信号を伝えます。光は3種類のイオドプシン(Iodpsin)のいずれかを持つ錐体細胞により、色として感じられます。3種類のイオドプシンは青(420nm)、緑(531nm)、赤(558nm)に対応します。これが、色の三原色です。 暗所では桿体細胞のローディプシン(Rhodipsin 500nm)が働くので、色彩の感覚は変わります。 |
そのまんま訳してもなんじゃらほいという言葉になっているのが、特許の特徴ですが、文面からのリンクにある図を見るとわかり易く、輝度を得るセンサーの間に、色に関するセンサーを配置するイメージであることがわかります。
これが、何で緑の配列を増やす理由になっているかというと、人間の目の構造に背景があります。
人の目の網膜で光を感じるのは、明るさを感じる錐体細胞と、3種類の赤、緑、青に対応するイオドプシンの働きによるものです。
錐体細胞は、1個の光子だけでも反応しますが、イオドプシンは100個以上の光子が必要であるといわれています。
明るさを感じる錐体細胞が反応する光は、波長500nm、どちらかというと、緑に近い近い波長です。
ですから、輝度情報として、緑の配置を一定のパターンで密としているわけです。
ベイヤー配列では、輝度情報である緑の面積は他の色の倍になるので、感度も倍になるわけで、暗い場所であれば、この情報で有利に現像処理が出来ることになります。
この原理で現像する場合は、緑は輝度情報をかねています。
ですから、暗い場所では、RGB三色の合成とは関係なく、輝度として取り扱うことが望ましい…んでしょうね…よく知りませんけど…。まあ、そんな現像処理しているシステムって、まだ聞いたことありませんけど…(^^;
また、ベイヤー配列のように、正方形にサブピクセルを配置するのは、次に説明するローパスフィルターの設計が最適になるためにも必要です。
ベイヤー配列には、とても合理的な背景があるのでした。
■ ローパスフィルタの実態 |
ぜんぜん「標本化定理/サンプリング定理」に従っていないデジタルカメラですが、だからといってそうした理論がまったく影響ない…わけはなく、従がわなければならない必然性があります。ガリレオではないですが、「それでも天体は動く」からです。別に、なにかの原理が、無視したからといって、消えてなくなるわけではありません。
その典型的な存在が、デジタルカメラのイメージセンサに用意されている、ローパスフィルタです。英語では、Anti-aliasing low-pass blur filter(エイリアシング抑制 ローパス ボケフィルタ)といいます。「標本化定理/サンプリング定理」で、これがないと何が起こるのか、容易に説明できます。
この説明には、論より証拠で、ローパスフィルタがないとどうなるかを、具体的にお示ししましょう。なにしろ、私が使用しているカメラで、LEICA Digital-Module-R + LEICA R9 は、ちゃんとしたローパスフィルタを持っていない機種です。そのため、時々、ローパスフィルタがないと何が起きるかを、そのまま示してくれます。
以下の写真の一部を拡大すると、不思議な模様が現れています。
この???な部分は、サンプリング原理でよく知られている、サンプリング周波数の1/2よりも高い周波数をサンプリングした際に発生する、エイリアス信号が発生してしまい、さらにカメラ固有のパターンノイズが重畳したものです。
サンプリングできない密度の、つまりサンプリング周波数の1/2よりも高い周波数のデータがある場合に、元には存在していない信号であるエイリアス信号が現れてしまいます。これは、変調と同じ原理なので、この写真でわかるように、目立つ場所と目立たない場所が出てきます。
この写真の場合は、手すりの密度が、LEICA-Digital-Module-RのイメージセンサのCCD配列で2列の密度を下回る密度になり、都合悪くなったところで、RGBのデータにエイリアス信号が綺麗に発生してしまい、絵がめちゃくちゃになったです。この場合は、ベイヤー配列のように、1つのピクセルが位置の違う複数のサブピクセルで構成されているものを、補完処理で取り扱ってしまうため、エイリアス信号が色の強い変動として見えやすく、この例のようになります。
余談ですが、カメラの世界では、このような状況を、モアレとか、色モアレ…なんて名づけているみたいですね。用語が、他の世界と違うのも、カメラの世界の歴史のなせる業ですね。
エイリアス信号とは、以下のようなもので、異なる周波数で近接しているために、現れる全く別な周波数の信号のことです。
![]() |
一段目のサンプリング周波数の1/2よりも高い信号を、二段目のサンプリング周波数でサンプリングしてしまうと、三段目のような波形の位相差、四段目のような信号が生まれてしまいます。これが、エイリアス信号です。 |
この問題を解決する方法も、はじめから理論的にわかっています。
サンプリング周波数の1/2よりも高い周波数のデータをカットすればよい…ということです。
このことは、直感的にも理解できる説明があります。
レンズの解像度は、MTFチャートで示されています。
MTFチャートは、一定の範囲で、何本の線が判別できるかによって、測定します。
MTF 絞り1.4
|
MTF 絞り2.8
|
MTF 絞り5.6
|
![]() |
![]() |
![]() |
受光素子がMTFチャートを描ける限界は、どれだけか…1サブピクセル単位では、色が得られないことはお分かり戴けると思います。では白と黒の線はピクセル単位の幅か…違いますよね。1本の線を正しく判断できるためには、ピクセル単位で白と黒があると、ずれてしまうと、白になったり、黒になったりします。この答えは、ピクセルの幅の倍の線が最小である…ということです。そうであれば、演算して、元の状態に出る…というのが、サンプリング周波数の1/2の周波数が再現可能な元のデータであるということです。
イメージセンサでいえば、周波数とはセンサの配列そのものと同じような意味となります。まじめに議論するとするとわかりにくいので、ここでは便宜的にイメージセンサ数で述べてしまいましょう。1000万画素のイメージセンサであれば、それはサブピクセル数ですので、理論的には250万画素ですが、その半分、つまり125万画素の解像度を超える絵はないようにするということです。つまり、それ以上の解像度にならないように、光を「散らして」やればよいわけです。
![]() |
光学ローパスフィルタ
|
この役割を負っているのが、ローパスフィルタです。
光学的ローパスフィルタは、あるドットに届く光を他のドットにも分散させるという動作をします。
すでにご説明したように、赤や青のサブピクセルは1サブピクセルおきにしか配置されていないので、1ピクセル先に、つまり2サブピクセル先に(場合によってはもっと遠くに)、ローパスフィルタは光を飛ばしてしまうわけです。ですから、いろいろなメーカーの資料が、「ローパスフィルタは画質に影響する」と説明しているのが、いかに控えめな話題であるかをご理解いただけると思います。
そもそも、理論どおりに考えて、そのまま作ると、ローパスフィルタの性能の解像度のカメラしか作れないわけで、1000万画素の機種が正しく表現できるのは理屈で考えると、125万画素相当に過ぎない…という話題になります。
本コンテンツの冒頭で、「1000万画素機の絵しか受け付けない」という雑誌社の話題を、笑いながら話題にしている背景がお解りいただけると思います。
このような背景があるため、LEICAではローパスフィルタが意図的にないような作り方にして、利用者にその使い方を預けたわけです。ローパスフィルタと同等な処理は、コンピュータ上でも可能ですので、現像処理を行う中で、困ったら実現すればよい…という考え方です。これで、LEICA自身がそうした現像ソフトを出していればたいしたものですが、実際には他社任せなので、困るのですが…(^^;
先に示したサンプルと、LEICA-Digital-Module-Rとの比較を示します。
ローパスフィルタがない理由のプラスの側面をお分かりいただけるとかと思います。
![]() | |
![]() | |
実際のカメラでは、補完処理をしたデータを含めた状態でエイリアス信号が目立たなければ良い様に考えられているので、ローパスフィルタと補完処理などを組み合わせて設計しているのではないでしょうか。
ただ、補完処理は、付け焼な「技術」に過ぎないものであり、それ以上のものではありません。取得されていない情報を、「空想」で加えているだけであり、それ以上のものではありません。ですから、絵のつじつまを合わせているに過ぎず、別に、高い解像度で絵を実現しているものではありません。
■ 偽色が現れているって、だからなんなさ… |
カラーセンサーが1素子ですべての色を取得できないために、いろいろな問題が発生します。
特に、色の再現の問題は、やっかいです。
なにしろ、RGBの色を取得している場所が違うために、グラデーションのある絵などを撮影すると、ローパスフィルタがゆるい場合は、センサごとの光のエネルギー量に位置による違いが発生してしまいます。センサの場所により、色が違うのですから、異なる色に再現されてしまいます。いわゆる、偽色です。
偽色は、ベイヤー配列のようなサブピクセルごとに位置が違うカラーセンサー方式をとる限り、原理的に避けがたい問題です。
偽色の対策も、光学的に行うならば、エイリアシング信号と同じで、ローパスフィルタになります。ローパスフィルタは、もともと1素子で受けるべき光を複数の素子に散らすわけですから、偽色は発生しにくくなります。
もっとも、絵を「ぼかす」わけです。あまり強くローパスフィルタをかけると、絵が鈍くなってしまいますので、バランスが必要でしょう。ですから、もしもローパスフィルタを弱くしたりして、偽色が発生したら、現像のパラメータを変更して、偽色補正処理を行い、我慢できる範囲まで、見ながら合わせていくという方法になります。これのような後での処理で対策する場合は、撮影時にはとてもできない指定ですので、rawデータ撮影でないと実現できません。
LEICA-Digital-Module-Rは、このような考え方で、光学的ローパスフィルタになにも期待しないようになっています。
雑誌を見ていると、「偽色が見られる」とか、「解像度が高い」とか「解像度が低い」なんて、平気で書いています。Jpegで圧縮した絵で評価して解像度もないですが、それ以前に、原理を踏まえて書いているのでしょうか。
カメラメーカーからすると、解像度を優先するとローパスフィルターもゆるくするわけで、そうすれば偽色が発生もしやすくなるわけです。LEICAみたいに利用者に選択を預けたいのがメーカーの本心でしょうか、そういうわけにも行かず、中途半端な場所を見つけるためにだけ、汲々としているのではないかと、なんか同情したくなる気もします。
でも、メーカーのそういう対応が原因で、日本のカメラマンは調子に乗って「Jpegで十分」なんて、ちんぷんかんぷんな主張をする人たちも出るのでしょう。欧米のカメラマンと、かなり違うみたいな気がします。
■ ちょっとかわいそうな、foveon(フォベオン) |
なぜイメージセンサーは、サブピクセルでRGBの単色を受けるようになっているでしょうか…
その理由は、CCDやCMOSの受光センサーの動作原理にあります。
CCDやCMOSの受光センサーの原理
|
![]() |
光子がエネルギーバンドから電子を「打ち出す」原理のイメージです。InGaAsP内で電場がかけられていることにより「エルルギーバンド」が形成され、そこの自由電子が光子によりにより「打ち出される」ことで、電子が得られます。これにより測定が可能になります。 |
今使われているセンサーは、半導体結晶でのエルネギーバンド中に束縛されている電子から光子により電子を「打ち出す」方式であるため、1つの光子あたり1つの電子しか得られません。
光子ひとつあたり電子ひとつですので、情報量が少ないため、とても色を光子から判断することはできません。
こうした背景があり、光子を光学的フィルターを使用して、RGBに分類して、それぞれを測定するということが考えられたわけです。
今、超伝導光センサーの研究が進められています。超伝導光センサーは、超伝導状態による相転移を利用するものですが、その方式ですと光子ひとつあたりで数千という相転移が発生するので、遥かに効率が良いので、光子のエネルギー量の測定が可能になります。つまり、ひとつのセンサーですべての色を判断することが可能となります。そうしたセンサーでは理想的なものを実現できそうです。
とはいえ、そんなセンサーがすぐにできるわけもなく…まして、民生用カメラに使われる日なんて、あるのかないのかも不明です(今でも特殊用途であれば実用化されています)。しかし、ひとつの素子で、すべての色を決めることができれば、それは理想的なサンプリングということになります。
で、現行の技術でそれを実現しようというアイディア素子の技術が登場しています。それは、アメリカのx3 techology社が開発しているfoveonセンサーです。
光子が半導体内で電子を「打ち出す」場所は、光の波長により表面からの深さに違いがあります。波長が長いほど、深い場所になるのです。foveonはそれを利用して、打ち出される位置に対応して電子を得ることにより、1つのサブピクセルの位置で、波長の短い順に、bgrの三種類の光に対応した電子を集めることができます。
![]() |
SIGMA SD-14
画面解像度2652*1763 |
![]() |
Nikon D40
画面解像度3008*2000…(^^; 情報量で見ると理論的画素数ではSD-14の1/3しかありません 世の中、これで同一の仕様みたいな説明なんて、 やっぱり、おかしいんじゃないですかね…(^^; |
この方式にすれば、得られるRGBのデータは同じ位置から情報を取得するので、位相のずれによる問題は発生しなくなります。ですから、偽色は、原理的に存在しません。
また、画素そのものは、サンプリング原理に従った画素として取り扱えます。
ですから、最近に発表されたFOVEON FX17-78-F13 Image Sensor(SIGMA SD-14に採用されています)は、2652*1763=4675476の有効画素数を持っています。
foveonは、各色のサブピクセル数と、ピクセル数が同じになりますので、これをベイヤー配列のセンサーを使用したカメラと比較すると、1870万画素に相当します。
ただ、ちょっとお待ちください…foveonを使用したカメラの画面解像度は、2652*1763です…それって、理論的には全くそうなのですが、他のカメラは、「なんちゃってサンプリング原理」に基づいているため、まじめに処理していません…(^^;…ですから、Nikonの630万画素機の画面解像度である3008×2000を下回っちまうのです…(^^;…理論的画素数ではsd-14がd40の3倍はありますし、それだけで見れば、Nikonの最上位機種を超えているのに…(^^;
そんな背景から、SIGMA sd-14本体とその現像ソフトには、縦横2倍に拡大して現像する機能が備わっています…(^^;…仕方ないというか、破れかぶれというか…
もっとも、FOVEONもそうそう理想的な素子とはいえません。なにしろ、只でも大きくできない画素を3層に分解しちまうので、物理的サイズが小さいため、あまり多くの電子を保持できません。最新のFOVEON FX17-78-F13でもダイナミックレンジは62dBに過ぎません。これって、私が使用しているカメラと比べると半分以下です…まあ、今の半導体センサの原理では、こうした限界を超えるのは難しいんでしょうか…私は門外漢なのでわかりませんが…。
余談ついでですが、FOVEONはそうした微妙さがある素子であるため、ばらつきが激しいみたいです。ですから、製品化するためには、個別に補正データを組み込むべきなのですが、そうしたことは、SIGMAのカメラはそうした処理をちゃんとやっているんでしょうか…持っていないので、わかりません…。実は、私はSIGMAのレンズと相性が良くなく、どうしても購入に踏み切れませんでした。今度出る、コンパクトカメラなら、いいかなー…買っても…(^^;
真面目に作ったら、数字が…かわいそうなfoveon
foveonは、実際の解像度ではなく、1つの画素を3画素として数えて宣伝しています…サブピクセルを宣伝にしているのに対抗してのことみたいです…業界からは、おかしいとまで言われているみたいで…どこまでもかわいそうなのでした…(^^;
余談ですが、foveonは解像度が低いにもかかわらず、絵の解像度が高いという評判です。
当たり前ですよね、だって、原理どおりであり、情報量があるんですもの…ひとつひとつの情報のレベルは低いとしても…。この当たり前の事を忘れて技術開発されているのが、デジタルカメラの面白いところです。
■ 静止画しか撮れないですけど…マルチショット方式 |
ここでご説明している話題は、実は、なにも新奇な話題ではありません。それどころか、至極順当な話題です。別に、今に始まった話題ではなく、初めてデジタルカメラが作られたときから、知られていたものです。
すでにご説明したように、現代の技術では、1素子ですべての色を検知することが極めて難しいため、解決策は2つしかないのでした。
ひとつは、ベイヤー配列のような、位置をずらして色情報を得るタイプ、今のデジタルカメラの主流技術です。この方法は、1回のシャッターで絵が撮れるので、現代の主流になるのは当然です。光学受光素子は、光を正しく受けるために、シャッターが必要です。
もしも、1回のシャッターで、同時にRGBのデータを得る方法は、光を光学的に3つに別けて受光する3CCDもありますが、この方法はCCDの特性が違いますし、光も1/3に弱めてデータを得ます…それに加えて光学的経路が長くなるので、今まで開発されているレンズはほとんど使えず(いわゆるレトロフォーカスレンズしか無理ですね)、やっぱりカメラの絵には無理です。
で、シャッター1回で撮影するのを諦めて、何回かシャッターを切れば、別な方法があります。
マルチショットと呼ばれる撮影方法です。
RGBに応じてシャッターを切ればいいんですよね、割り切って…。
この場合は、カラーフィルターを取り替えながら撮影する方法と、カラーフィルターをもったCCDなどの受光素子をサブピクセルセイズでずらして撮影する方法があります。以前は、前者が主流でしたが、今は後者が主流です。なぜならば、必要に応じて1回のシャッターで撮影することも、マルチショットで撮影することも可能になるからです。マルチショットのシャッターは、3〜4回切るのが多いですが、ずらすタイプの場合は1/2サブピクセル分だけシフトして16回切って撮影する方法もあります。
このような、マルチショットタイプのカメラは、プロが愛用している35mmよりも大きなサイズのものが、ほとんどです。例えば、hasselbladなんかです。本体とデジタルバッグで数百万円もします…製造量、少ないですから…。
![]() |
![]() |
Hasselblad H2 camera + CF39 MS(Multi-shot) Degial Back
|
この方法で撮影した場合は、被写体の状況の変動…照明とか被写体の移動が問題なだけで、ベイヤー配列の問題点である空間周波数が本来的に持つ位相差と、なんちゃってサブピクセルがないので、偽色はほとんどなくなります。
問題点があるとしたら、撮影している間に被写体が動くと困ることくらいでしょうか…。
映像を映し出すシステムでは、プロジェクターに採用されているdlpという技術が、このように、3色の色を順番に表示する方法を取りますが、撮影時にやると、さすがに難しいですね。
私は、このような凄いカメラを持っていないので、人から聞いた話ですが、このカメラで撮影した絵は、次元が違うそうです…。
■ 画素の豊かさと正確さの大切さ |
これまで説明してきた話題をまとめると、デジタルカメラの絵を支えている、画素/ピクセルとは、実は同じ仕様ではなく、原理や方式により、質の違いがある、ということです。
まじめに現像したfoveonやhasselbladの1画素には、得られた光の「本当の情報」が使われていますが、大部分のデジタルカメラは、補完処理をした「なんちゃって情報」を赤と青の情報では75%使用しています。
ところが、今書かれているカタログには、堂々と「○○○○万ピクセル」とか書かれちゃっているのです…本当は、「○○○○万サブピクセル」と書くべきなのに…。
これって、なんか不自然…と思うのは私だけでしょうか…(^^?
ところで、ここれまで述べてきた話題は、大切なピクセルとは何かという点で、「本当の情報」と「なんちゃって情報」という視点で説明してきました。実は、これだけで説明するのは、まだ足りない話題があります。
それは、画素/ピクセルの情報は、どれだけの精度で正しく読み出されているのか…という視点も必要だからです。
CCDやCMOSから得られるイメージデータは、rawデータとして得られます。
まあ、本当に生のデータのままではないのですが、この得られるデータは、すでに説明したように、アナログデータをデジタル化したものです。アナログ/デジタル変換は、ADコンバーターにより行います。
ADコンバーターの評価には、いくつか指標がありますが、一番使われるのは、ビット数です。
NikonやCanonは、12bit、4096です。これは、アナログ出力を4096等分に分割して数値化しているということです。
![]() |
PENTAX K10D
別になにか気に入らないわけではないですが、 宣伝のための仕様は意味がないですよね… 22bit ADとまでなるとね…おふざけとしか思えない…(^^; |
OLYMPUSやLEICAは、16ビット、65536です。これは、アナログ出力を65536等分に分割して数値化しています。より、精細という意味になります。
pentax k10では、なんと22ビット、4194304です。
でも、ちょっと待ってください…イメージセンサの出力って、どれだけあるのでしょうか…(^^;
pentax k10がどのようなセンサーを使用しているか知りませんが、先に例でご説明したKodak kaf-10010ceのサチレーション信号レベルは、40万electoron、電子40万個に過ぎません。
これを基準とすると、12bitで電子97個分刻み、16bitで電子6個分刻み、22bitで0.09個分…(^^;
実は、結構前ですがOLYMPUSの人と話していて、16bitのAD変換ってどれっくらいの精度で実現しているんですかと質問して、凍りつかれたことがあります…(^^;
だいたい、現代物理学を知っている人の常識で、自然界には「アナログ」という物理量が存在しないというものがあります。光の最小単位は光子ですし、電気の最小単位は電子ですから。
その最小単位よりも小さい物理量を取り扱うということは、その精度が必要であるということです。いったいいつ、pentaxは0.09個分の電子の計測する技術を開発できたのでしょうか…(^^;
アナログアンプで電子ひとつを正しく取り扱い、それを計測することだって、信じられない話題です。だって、そんなに安定した、ノイズのない世界が、簡単に作れるわけがありません。
つまり、22bitといっても、そうしたADコンバーターを使用しているだけで、有効桁数はどれだけなのかわからない…ということです。12bitあるのか、16bitあるのか。有効桁数もわからないデータなんて、宣伝のために人を惑わす目的以外に、なんの意味があるんだろう…(^^;
16bitですら精度はどれくらいかなーと思いますが、22bitだと、ウソですよね、受光素子と組み合わせて意味ある、そんな精度のもの作れるわけがありません、現代の技術で…。
実は、オーディオの世界でも、売りたい一心で、こうした無意味な技術製品が多く作られた時代があります。
一生懸命、真面目に、でも、売りたい一心で、ついやっちゃう…それが、お笑い技術論の本質です。
■ 存在しない情報は、生み出せない |
ここで説明した話題について、根本的なご説明が必要でしょう。
なぜ、今のデジタルカメラの技術は、そこまで批判される必要があるのか…
そのお答えは、簡単です。
存在しない情報は、どのような技術でも生み出せないからです。
出来もしないことを、ごまかしてまで宣伝文句にしてしまい、技術的な意味を伝えることができなくなってしまっている実態、看過し難いものです。笑いを取るのが業界全体からの目的なら、成功しつつあるとは思いますが…。なんか、将来に新技術が開発されて、ここで説明した問題が克服されたら、「フルスペック・メガピクセル」とか言い出しそうですよね。ハイビジョンテレビが、ありもしないフルスペック放送を表示できると、「フルスペック・ハイビジョン」と宣伝しているようなものですが…(^^;
オーディオにも、お笑い技術として、失われた記録されていないオーディオ信号を甦らせるというものがあります。なんのことはない、高域に雑音を混入する技術であり、まともなオーディオ技術ではありません。
デジタルカメラの画素の話題も、同じです。
補完技術で画面を構成する限り、その技術は、本質的な技術では、あり得ません。
どんなに研究を重ねていても、このような形で宣伝していては、売りたい一心故の「なんちゃって技術」であることに、違いはありません。
別に、研究者の本心ではないでしょう。
より進んだ技術が、いつか、本物の技術に立ち返る日をもたらすのではないかなーと、時々思います。