最終更新日:2001.11.29

画像電子学会 研究会講演要旨
第187回 研究会(2001年 7月 25日)





計算機ホログラムにおける最適化

田中賢一(明治大学理工学部)

 本研究では,計算機ホログラムの画質を改善する方法について最適化の観点から検 討した.すなわち,計算機ホログラムからの再生像を最良ならしめるために,計算機 ホログラムとして記録される量子化される干渉じまそのものをどのような形にすれば 良いかということについて検討した.  そこで,再生物体が良好に再生される基準を設定し,遺伝的アルゴリズムにより, 基準を最良にする干渉じまのパターンを探索した.計算機ホログラムの画素数を 64(H)×64(V)とした場合,白黒2値表示としても,干渉じまのパターンには1000桁に及 ぶ組み合わせ数が存在する.そのなかから,3次元像再生を行う計算機ホログラムで も,遺伝的アルゴリズムによって充分な結果を得ることが出来た.  そのために,評価関数をどのようにするかが重要性を本研究では明らかにした.す なわち,再生像における振幅のばらつきを小さくする関数と,像のコントラストを明 瞭にする関数とを併せ持っておく必要があることが明らかになった.これは,それぞ れ単独の評価関数だけでは良好結果を得ることは出来ないが,2種類の評価関数を併用 することによって,視覚的にも優れた再生像を得ることを計算機シミュレーションに よって立証した.


MPEG-2/MPEG-4 トランスコーダにおける適応的再探索の検討

中嶋淳一(NTTサイバースペース研究所)
辻 裕之(NTTサイバースペース研究所)
八島由幸(NTTサイバースペース研究所)
小林直樹(NTTサイバースペース研究所)

本研究は,MPEG-2からMPEG-4へのトランスコーディングについて論じ,処理時 間を大幅に減少させて高品質の復号画像を得るための動きベクトルの変換方法 を提案する.MPEG-2復号器とMPEG-4符号化器をカスケード接続した構成を基本 とし,MPEG-2符号化パラメータに含まれる動きベクトルを再利用することで動 き予測の処理時間を大幅に短縮する.本研究では動きベクトルの統合(再サン プル)方法と再探索方法に焦点を当てている. MPEG-2の復号画像に対し,空間解像度と時間解像度を落としたMPEG-4符号化を 考える.縮小画像におけるマクロブロックは,空間的に同じ位置にあるMPEG-2 のそれに対応したものとなる.まず,再探索に用いる動きベクトルの初期値を, 復号した動きベクトルから統合・推定し,この動きベクトルを中心とした周囲 数画素の範囲において,再探索を行うことで精度の改善を行う.再探索により 再符号化画像の品質が大幅に向上するため,後者の処理効率を上げることが重 要となる. 統合された動きベクトルの推定精度を測る指標として動きベクトルのばらつき 度を定義する.ばらつき度は,統合対象の動きベクトルが似た大きさ・方向を 持つときに小さな値をとり,SADを最小にする最適な動きベクトルとのずれも 小さい.一方,動きベクトルの方向が異なるときに大きな値をとり,最適な動 きベクトルとのずれが大きくなる.この性質に基づき,一定の確率で最適な動 きベクトルを含む範囲を再探索範囲として定める. シミュレーション実験により提案方法の改善効果として,変換画像のPSNR値と SADの演算回数を,固定範囲探索と再探索なしの場合に対して比較した.再探 索のアルゴリズムは,フルサーチアルゴリズムと,高速探索を行うHorizontal And Vertical Search (HAVS)アルゴリズムを用いた.MPEG-4の目標ビット レートは384kbps,VM16.0のレートコントロールを適用した. 提案方法では,固定範囲による探索方法とほぼ同じPSNRが得られ,平均PSNRの 差は0.03dB〜0.11dBであった.SADの演算回数に基づく処理時間の比較では, フルサーチアルゴリズムに対して90%,HAVSアルゴリズムに関しても,平均 14.3%の削減を実現した.


Adaptive Use of Long-Term Memory for Motion Compensation

Jorge F. RIVERO(Hokkaido University)
Hideo KITAJIMA(Hokkaido University)
Miki HASEYAMA(Hokkaido University)

The use of several prior frames(long-term memory) as reference frames for motion compensation allows significant improvement in the quality of the predicted image. The way in which this long-term memory is scanned has a great influence in the final result and in the total number of vectors of the code for the motion vectors. In this paper some methods for using more efficiently the long-term memory are presented. The fundamentals ideas proposed are: i The reshaping of the searching areas according to the nature of the movement. ii The reshaping of the searching areas according to the correlation of the reference frame to the current frame. iii The reordering of the reference frames, to discard the reference frame least correlated to the current frame (first reference frame in the following prediction). Based on this principles some methods of scanning the searching areas were proposed, which tend to decrease the number of candidate motion vectors of the code without affecting or in some cases even improving the quality of the prediction. The three fundamental methods proposed are: 1.- Motion-Oriented Reshaping of the Searching Areas (MOR), based in the analysis of the predominant type of movement in the sequence to adapt the searching area according to it. 2.- Temporal-Decreasing Searching Areas (TDSA), based in the decreasing correlation of reference frames as they get farther from the current frame, used to focus the search on the closer (or more correlated) frames. 3.- Temporal-Correlated Oriented Search (TCOS), based in the analysis of the correlation of each of the reference frames with the current frame in a sequence, used as a prediction for the correlation of the reference frames in the following prediction, which also allow to discard the least correlated frame in each prediction. The methods above and their combinations allow different rates of reduction of the candidate motion vectors of the code. Results comparing all these methods are shown for the video sequences Flower-garden and Susie. The experiments were conducted using blocks of 8 x 8 pixels, a full search algorithm with one pixel precision from [-7;7] , and a memory of 8 prior reference frames. From the results arises the possibility of efficient coding for motion compensation.


等色関数における必要条件の基本的考察

松代信人(沖データ)
大田 登(ロチェスター工科大学)

色彩科学の分野においては、基礎として非常に重要な課題であるにもかかわら ず、これまでにほとんど議論されていない研究課題がいくつか見受けられる。そ の1つとして、色度図が凸性を満たすための等色関数に関する条件解析問題があ る。凸性は加法混色が成り立つ条件として、通常の等色関数においてごく当然の こととして受け入れられている。しかし、等色関数の形によっては、必ずしも凸 性が保障されない場合が存在すると考えられる。  これまでになされた研究は、ある等色関数が与えられたときに、これが凸性を 満たすかどうかを判定する条件に関するものであり、凸性を満たす等色関数の一 般解が導出されたことはない。本稿では、色度図が凸性を満たすための等色関数 一般解を導出した。凸性は等色関数において最小限満たされていなければならな い条件であり、その意味で必要条件の1つである。  本問題を、2次元座標系においての微分方程式として定式化した場合、この微 分方程式の解を得ることが困難であることから、本稿では、等価的に1次元座標 系における微分方程式によって記述される問題として定式化した。CIE1931の等 色関数では、本稿で示した一般解を満たすことが確認できた。また、一般解を満 たさない場合において、色度図に凹となる部分が含まれることを示した。


招待講演 高画質デジカメの最近の動向

乾谷正史(富士写真フィルム)

 1988年、富士フイルムが世界に先駆けてデジタルカメラ (DS-1P)を開発発表 してから10年以上の年月が過ぎた。その間、半導体微細化技術の進歩に伴って 画素サイズが3μ□台まで減少し、当初40万画素に過ぎなかったCCD画素数が 300万画素を超えるようになった。  しかしながら、撮像画質は、CCD画素数のみでなく、解像度、色再現、階調、 S/N、ダイナミックレンジ、等の総合性能によって決まる。  また、デジタルカメラでは、デジタル信号処理回路を内蔵しており、シャープ ネス、色再現、階調特性、等の画質改善が図られている。しかし、デジタル信 号処理による画質改善は、同時にS/N低下をもたらす為、高画質撮像には、CCD 出力信号のS/Nが重要な要件となる。CCDのノイズには、信号電荷量の平方根に 比例するショットノイズと信号電荷量に依存しない熱雑音や固定パターンノイ ズが存在するが、高S/Nには信号電荷量の増加がより重要となる。実シーンの 2次元周波数特性を解析すると、水平垂直成分がより多く含まれている。例えば、 500シーンの平均を取ると、周波数分布は菱形となる。また、人間の視覚特性を 調べると斜め45度方向にコントラスト解像度が低い。  富士フイルムが提案する「ハニカムCCD」は、この事実を利用し、画像情報の 冗長部分を省いて撮像する(実質同一の解像度を得るのにより少ない画素数で 良い。したがって1画素の面積増大)新しい構造のCCDである。  ハニカムCCDは、同一画素数の場合、正方格子配列のCCDに比較して水平垂直 方向の解像度が1.41倍となる。 さらに、従来のIT-CCDの一画素が、フォトダイオード、CCD転送部、CCD転送 部の電極間を繋ぐ配線部、で構成されているのに対し、ハニカムCCDの一画素 は、画素間配線部を必要としないのでより信号電荷量が大きい。  本発表では、代表的な多画素デジカメについて、2次元解像度特性(方向対 解像度)と信号レベル対S/Nの実測値を示し、ハニカムCCDの2次元解像度特性 は水平垂直解像度が高いひし形である事、従来CCDを用いた各社デジカメも信 号処理方式の違いによって種々の形状である事、およびハニカムCCDのS/Nが 優れている事を報告した。



All Rights Reserved, Copyright(c) Institute of Image Electronics Engineers of Japan
本講演要旨に関してご意見がありましたら学会事務局までご連絡下さい。
E_Mail:iieej@ma.kcom.ne.jp