すいません今スコではなく、未来、将来の望遠鏡(先スコ?)についてです。
カメラにはレンズ要らなくなるらしいです。したがって、電子観望にも?
https://xenospectrum.com/lensless-optic ... asi-uconn/
記事の内容の半分も理解できません。
波面をそろえただけで、限界を超える精密画像が得られる理屈が分かりません。
どなたか、解説いただけないでしょうか?
電子観望にも、レンズ要らなくなる?
Re: 電子観望にも、レンズ要らなくなる?
インテルとか半導体メーカーが5~10年くらい前?から注力している撮像素子です。受光素子上に回折格子のような構造を作り込んで受光素子上に干渉縞のような明暗情報を書き込み、これを演算で元画像を再構築するというもの。ホログラムに近いイメージです。(ホログラムは被写体にレーザを当てて、反射光と元のレーザで干渉縞を形成。これを感光樹脂フィルム中の屈折率差の縞に変換保存。これにレーザを当てると被写体の立体像を再構築・・・というもの。この干渉縞保存を撮像素子で、レーザの代わりを回折格子構造で行うのがご紹介の記事です)
表面が平らで薄くできる。しかも半導体製造工程で一括で製造できるので、自動運転の車載カメラ類に採用可能性高い(側面、後面などへの配置でデザイン上の影響が少ない)。ということで産業界では注目株です。私が映像を見たときには、ぼや~とした像がトロトロと遅く再構築できる程度でしたが、半導体の速度向上ペースを考慮すれば・・・数年先には警備用カメラとかで出てきそう。
薄い材料で作れるので透過率の制約が少なく、THz~赤外や紫外用の光学系で面白いんです。でも回折限界以上とか求めるとメタマテリアルの条件+回折格子とか別の問題が増えるので難しいです。まずは低解像度で、波長も長くて微細加工の要求精度が緩い赤外域での実用化となるでしょう。
表面が平らで薄くできる。しかも半導体製造工程で一括で製造できるので、自動運転の車載カメラ類に採用可能性高い(側面、後面などへの配置でデザイン上の影響が少ない)。ということで産業界では注目株です。私が映像を見たときには、ぼや~とした像がトロトロと遅く再構築できる程度でしたが、半導体の速度向上ペースを考慮すれば・・・数年先には警備用カメラとかで出てきそう。
薄い材料で作れるので透過率の制約が少なく、THz~赤外や紫外用の光学系で面白いんです。でも回折限界以上とか求めるとメタマテリアルの条件+回折格子とか別の問題が増えるので難しいです。まずは低解像度で、波長も長くて微細加工の要求精度が緩い赤外域での実用化となるでしょう。
Re: 電子観望にも、レンズ要らなくなる?
「原」さん。毎度、ありがとうございます。
お話を聞いて読み直すと、だいぶん分かってきました。
振動させて、位相をみて位相差として分解能を得るらしいですが、単波長点光源ならイメージしやすいのですが、広角画像や波長域を考えると、計算のアルゴリズムが想像できません。ただ、すごく速い演算しないとライブ画像にならないのは、なんとなくわかります。
本体は薄くなっていってるのに、カメラ部分の突起が目立つ携帯電話のカメラにいいようですが、いつのことになるやら・・・
お話を聞いて読み直すと、だいぶん分かってきました。
振動させて、位相をみて位相差として分解能を得るらしいですが、単波長点光源ならイメージしやすいのですが、広角画像や波長域を考えると、計算のアルゴリズムが想像できません。ただ、すごく速い演算しないとライブ画像にならないのは、なんとなくわかります。
本体は薄くなっていってるのに、カメラ部分の突起が目立つ携帯電話のカメラにいいようですが、いつのことになるやら・・・
プライベートメッセージです
Re: 電子観望にも、レンズ要らなくなる?
ああ、なるほど。
なるほどってか、紹介のURLのタイトルと写真だけ見て、どんな仕掛か見当が付きますので、読まんかった(笑い
似たような話で、コンピューターラジオってのがあります。
私みたいなゲルマラヂヲを作ってた人は、ラジオってコイルと可変コンデンサー(バリコン)があって、それで同調を取って耳に聞こえる音に変換するもんだと思ってます。ところが、最近は同調装置がなくて、いきなりADコンバートかけて、それをFFTしてバンドパスフィルターをかけて、欲しい周波数帯だけのシグナルを取り出す電算機ラヂヲなんだそうです。
だけど、天体望遠鏡の場合、全体が1枚のシリコン板の受光素子で置き換えられたとして、口径が大きいほど細部が見えるだろうし、表面の平面度の精度とかは・・・・、ああ、それも歪みを測定しておいて、使うとき補正すれば良いのですね。(参考記事読んでなくてすいません)
駆逐艦の位相差レーダー(フューズド・アレイ)みたいな仕掛の天体望遠鏡になるのかしら?
こりゃ、赤道儀も要らなくなるなぁ。
(^^
なるほどってか、紹介のURLのタイトルと写真だけ見て、どんな仕掛か見当が付きますので、読まんかった(笑い
似たような話で、コンピューターラジオってのがあります。
私みたいなゲルマラヂヲを作ってた人は、ラジオってコイルと可変コンデンサー(バリコン)があって、それで同調を取って耳に聞こえる音に変換するもんだと思ってます。ところが、最近は同調装置がなくて、いきなりADコンバートかけて、それをFFTしてバンドパスフィルターをかけて、欲しい周波数帯だけのシグナルを取り出す電算機ラヂヲなんだそうです。
だけど、天体望遠鏡の場合、全体が1枚のシリコン板の受光素子で置き換えられたとして、口径が大きいほど細部が見えるだろうし、表面の平面度の精度とかは・・・・、ああ、それも歪みを測定しておいて、使うとき補正すれば良いのですね。(参考記事読んでなくてすいません)
駆逐艦の位相差レーダー(フューズド・アレイ)みたいな仕掛の天体望遠鏡になるのかしら?
こりゃ、赤道儀も要らなくなるなぁ。
(^^
Re: 電子観望にも、レンズ要らなくなる?
ガラクマさん 「原」さん 木村さん みなさん こんにちは
ガラクマ>カメラにはレンズ要らなくなるらしいです。したがって、電子観望にも?
ガラクマ> https://xenospectrum.com/lensless-optic ... asi-uconn/
興味深い記事の紹介、ありがとうございます。
Kobayashi>単独のセンサーが物理的に達成しうる限界(回折限界)を遥かに超える...
※レンズ(and/or鏡)のついていない「センサー」の回折限界って、どゆこと???
***
「M」(=シロウト)が、こうかしらん、と考えたのは... :-
波動光学/回折理論によると「瞳関数」:瞳(開口)上の(強度,位相)の分布、
が与えられた時、それをフーリエ変換すると「像」が得られる。
※cf. "Star Testing Astronomical Telescopes"
※※https://forum.furusco.com/viewtopic.php?p=257
電波の場合は、強度と位相の両方を「センサー」(アンテナ)で、知ることができるので
鏡and/orレンズを使わないフェーズドアレイ方式が色々に応用
(衛星TVの平面アンテナなど)されている。
強度と位相情報を数値化すれば、フーリエ変換を計算して(数値化)「像」が得られる。
※木村さんご紹介のレーダーは、ビームの方向を変えるのにアンテナを機械的に動かす
必要がない(赤道儀いらない:-)ので有利。
しかし、光の場合は、位相を「直接」に検出するセンサーは(できてい)ない。
そこで(計算のためには)間接でもなんでも位相情報を得よう(〜Phase retrieval)と
ガンバル...。
フーリエ変換に、光学系(レンズ、鏡)を使い(光学)「像」を得るのが、普通の望遠鏡。
※「原」さんご紹介の方式の撮像素子が部品屋で安価に入手できるようになれば状況は
※一変するでしょうかね。
※他方、この記事で紹介されているAR1335は1ヶで$18ぐらい。
それにかぶせる「coded mask」も(原価は)高くなさそうで有望か?
本記事の「coded sensor」は、元ネタ=NatureCommunicationsの記事の参考文献#24:
Wang, C., Dun, X., Fu, Q. & Heidrich, W. Ultra-high resolution coded
wavefront sensor. Opt. express 25, 13736-13746 (2017).
に解説があります。 (細部は微妙に異なるのですけど...)
※※Shack-Hartmann sensorとの対比で説明する導入部は出色!
※※※NatureCommunicationsの記事も参考文献#24も、今はopen accessですが、
※※※いつまでそうなのか油断は禁物。
※ 苦労して(位相情報を取りだして計算して...、)なにがウレシイかというと...
※画像を見るときに「ピントを合わせる」ことができる etc etc.
※※しばらく前にlight field cameraというのが話題になりましたね。
***
「M」>「センサー」の回折限界?
センサー面が「開口」なのですから回折限界は、センサー面の大きさ(/形状)で決まるはず。
※円形開口でないので望遠鏡の本にのっている式とは微妙に違う。
***
Kobayashi>MASIの真の革新性は、個々のセンサーがバラバラに取得した波面データを、
Kobayashi>どのようにして一つの巨大的な「仮想レンズ」として統合するか、という点にある。
(位相情報を取りだしたおかげで)ここで提案する方法で統合することができる、ということですかね。
***
ガラクマ>電子観望にも?
解像力はイイとして、集光力は、どうなんでしょうかねぇ? (:-)
ガラクマ>カメラにはレンズ要らなくなるらしいです。したがって、電子観望にも?
ガラクマ> https://xenospectrum.com/lensless-optic ... asi-uconn/
興味深い記事の紹介、ありがとうございます。
Kobayashi>単独のセンサーが物理的に達成しうる限界(回折限界)を遥かに超える...
※レンズ(and/or鏡)のついていない「センサー」の回折限界って、どゆこと???
***
「M」(=シロウト)が、こうかしらん、と考えたのは... :-
波動光学/回折理論によると「瞳関数」:瞳(開口)上の(強度,位相)の分布、
が与えられた時、それをフーリエ変換すると「像」が得られる。
※cf. "Star Testing Astronomical Telescopes"
※※https://forum.furusco.com/viewtopic.php?p=257
電波の場合は、強度と位相の両方を「センサー」(アンテナ)で、知ることができるので
鏡and/orレンズを使わないフェーズドアレイ方式が色々に応用
(衛星TVの平面アンテナなど)されている。
強度と位相情報を数値化すれば、フーリエ変換を計算して(数値化)「像」が得られる。
※木村さんご紹介のレーダーは、ビームの方向を変えるのにアンテナを機械的に動かす
必要がない(赤道儀いらない:-)ので有利。
しかし、光の場合は、位相を「直接」に検出するセンサーは(できてい)ない。
そこで(計算のためには)間接でもなんでも位相情報を得よう(〜Phase retrieval)と
ガンバル...。
フーリエ変換に、光学系(レンズ、鏡)を使い(光学)「像」を得るのが、普通の望遠鏡。
※「原」さんご紹介の方式の撮像素子が部品屋で安価に入手できるようになれば状況は
※一変するでしょうかね。
※他方、この記事で紹介されているAR1335は1ヶで$18ぐらい。
それにかぶせる「coded mask」も(原価は)高くなさそうで有望か?
本記事の「coded sensor」は、元ネタ=NatureCommunicationsの記事の参考文献#24:
Wang, C., Dun, X., Fu, Q. & Heidrich, W. Ultra-high resolution coded
wavefront sensor. Opt. express 25, 13736-13746 (2017).
に解説があります。 (細部は微妙に異なるのですけど...)
※※Shack-Hartmann sensorとの対比で説明する導入部は出色!
※※※NatureCommunicationsの記事も参考文献#24も、今はopen accessですが、
※※※いつまでそうなのか油断は禁物。
※ 苦労して(位相情報を取りだして計算して...、)なにがウレシイかというと...
※画像を見るときに「ピントを合わせる」ことができる etc etc.
※※しばらく前にlight field cameraというのが話題になりましたね。
***
「M」>「センサー」の回折限界?
センサー面が「開口」なのですから回折限界は、センサー面の大きさ(/形状)で決まるはず。
※円形開口でないので望遠鏡の本にのっている式とは微妙に違う。
***
Kobayashi>MASIの真の革新性は、個々のセンサーがバラバラに取得した波面データを、
Kobayashi>どのようにして一つの巨大的な「仮想レンズ」として統合するか、という点にある。
(位相情報を取りだしたおかげで)ここで提案する方法で統合することができる、ということですかね。
***
ガラクマ>電子観望にも?
解像力はイイとして、集光力は、どうなんでしょうかねぇ? (:-)