JP5764969B2 - Image composition method - Google Patents
Image composition method Download PDFInfo
- Publication number
- JP5764969B2 JP5764969B2 JP2011038748A JP2011038748A JP5764969B2 JP 5764969 B2 JP5764969 B2 JP 5764969B2 JP 2011038748 A JP2011038748 A JP 2011038748A JP 2011038748 A JP2011038748 A JP 2011038748A JP 5764969 B2 JP5764969 B2 JP 5764969B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- information
- identification
- marker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 52
- 239000000203 mixture Substances 0.000 title claims description 45
- 230000002194 synthesizing effect Effects 0.000 claims description 13
- 230000015572 biosynthetic process Effects 0.000 claims description 4
- 238000003786 synthesis reaction Methods 0.000 claims description 4
- 238000001308 synthesis method Methods 0.000 claims description 3
- 239000003550 marker Substances 0.000 description 203
- 239000002131 composite material Substances 0.000 description 30
- 238000003384 imaging method Methods 0.000 description 30
- 238000010586 diagram Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Description
本発明は、撮影した実画像と生成した仮想画像とを合成する画像合成方法に関する。 The present invention relates to an image composition method for compositing a captured real image and a generated virtual image.
撮影した実画像と生成した仮想画像とを合成する画像合成方法としては、例えば、撮影した撮影画像に含まれる特定の被写体と対応づけられた付加画像を、特定の被写体の位置に応じて撮影画像上に配置して合成画像を生成する画像合成方法が知られている(例えば、特許文献1参照)。このような画像合成方法にて合成された合成画像は、たとえば表示画面等に表示される。 As an image composition method for synthesizing a captured actual image and a generated virtual image, for example, an additional image associated with a specific subject included in the captured captured image is captured according to the position of the specific subject. An image composition method for generating a composite image by arranging the image on the top is known (for example, see Patent Document 1). The synthesized image synthesized by such an image synthesizing method is displayed on a display screen, for example.
上記従来の画像合成方法は、特定の被写体の位置に応じて撮影画像上の位置に付加画像を配置するので、例えば特定の被写体を撮影して表示された付加画像としての仮想画像が表示画面より大きい場合には、仮想画像の画面から外れて表示されていない部位を画面に表示すべく撮影の方向を変更すると、特定の被写体が画面から外れてしまうことにより、画像を合成することができないという課題がある。 In the conventional image composition method, the additional image is arranged at a position on the captured image in accordance with the position of the specific subject. Therefore, for example, a virtual image as an additional image displayed by photographing the specific subject is displayed on the display screen. If it is large, if the direction of imaging is changed to display on the screen the part that is not displayed off the screen of the virtual image, the specific subject will be off the screen and the image cannot be synthesized. There are challenges.
本発明は、かかる課題に鑑みてなされたものであり、その目的とするところは、仮想画像が対応づけられた特定の被写体が含まれない撮影範囲であっても、特定の被写体にて対応づけられた、実画像上の位置に仮想画像を合成することが可能な画像合成方法を提供することにある。 The present invention has been made in view of such a problem, and the object of the present invention is to associate a specific subject with a shooting range that does not include the specific subject with which the virtual image is associated. Another object of the present invention is to provide an image synthesis method capable of synthesizing a virtual image at a position on a real image.
かかる目的を達成するために本発明の画像合成方法は、
被写体を撮影した実画像と予め生成されている仮想画像とを合成する画像合成方法であって、
前記被写体に、自身の位置を示す位置情報を有し前記仮想画像が対応づけられた位置情報被写体と、撮影された実画像から識別可能であって前記仮想画像が対応づけられていない識別被写体とを貼付する工程と、
前記位置情報被写体と、前記識別被写体と、を含む前記被写体を撮影し、撮影された前記実画像を構成する画像データを記憶する実画像記憶工程と、
前記画像データに基づいて、前記位置情報被写体に対する前記識別被写体の情報識別間相対位置を算出し、算出した前記情報識別間相対位置と前記仮想画像とを前記識別被写体に対応づけた識別被写体情報を、記憶する識別被写体情報記憶工程と、
前記位置情報被写体を含まず前記識別被写体を含む前記被写体を撮影した際に、前記識別被写体情報に基づいて前記実画像と前記仮想画像とを合成する画像合成工程と、
を有することを特徴とする画像合成方法である。
In order to achieve this object, the image composition method of the present invention includes:
An image synthesis method for synthesizing a real image obtained by photographing a subject and a virtual image generated in advance,
A position information subject having position information indicating its own position and associated with the virtual image, and an identified subject that is identifiable from the captured real image and not associated with the virtual image ; A process of attaching,
A real image storage step of photographing the subject including the position information subject and the identification subject, and storing image data constituting the photographed real image;
Based on the image data, a relative position between information identifications of the identification subject with respect to the position information subject is calculated, and identification subject information in which the calculated information identification relative position and the virtual image are associated with the identification subject is obtained. An identification subject information storing step for storing,
An image synthesis step of synthesizing the real image and the virtual image based on the identified subject information when the subject including the identified subject is captured without including the position information subject;
An image composition method characterized by comprising:
このような画像合成方法によれば、被写体に設けられ自身の位置を示す位置情報を有する情報被写体と識別被写体とを含む被写体を撮影した画像データに基づいて算出した情報識別間相対位置と識別被写体とが対応づけられて記憶されているので、位置情報被写体を含まず識別被写体を含む被写体を撮影した場合であっても、画像上における識別被写体の位置から、位置情報被写体の位置を特定することが可能である。このため、識別被写体の正確な位置を特定できるので、予め生成されている仮想画像を、実画像の正確な位置に配置した合成画像を生成することが可能である。このため、情報被写体を含まず識別被写体を含む被写体を撮影した場合であっても、仮想画像と実画像とを適切な位置に配置して合成することが可能である。 According to such an image composition method, the relative position between the identification information and the identification subject calculated based on the image data obtained by photographing the subject including the information subject having the positional information indicating the position of the subject provided on the subject and the identification subject. Are stored in association with each other, so that the position of the position information subject can be identified from the position of the identified subject on the image even when the subject including the identified subject is captured without including the position information subject. Is possible. For this reason, since the exact position of the identified subject can be specified, it is possible to generate a composite image in which a virtual image generated in advance is arranged at an accurate position of the actual image. For this reason, even when the subject including the identification subject is captured without including the information subject, the virtual image and the real image can be arranged and combined at an appropriate position.
かかる画像合成方法であって、新たに撮影した実画像の画像データに、前記識別被写体と、前記識別被写体と異なる他の識別被写体とが含まれていた場合に、前記新たに撮影した前記実画像の画像データに基づいて、前記識別被写体と前記他の識別被写体との識別同士間相対位置を算出し、算出した前記識別同士間相対位置と前記他の識別被写体とを対応づけた新たな識別被写体情報を記憶することが望ましい。 In this image composition method, when the image data of a newly captured actual image includes the identified subject and another identified subject different from the identified subject, the newly captured actual image Based on the image data, a relative position between the identified subject and the other identified subject is calculated, and a new identified subject in which the calculated relative position between the identified subject and the other identified subject is associated with each other. It is desirable to store information.
このような画像合成方法によれば、識別被写体と他の識別被写体との識別同士間相対位置を算出し、算出した識別同士間相対位置と他の識別被写体を対応づけて記憶するので、記憶された識別同士間相対位置と情報識別間相対位置とに基づいて、他の識別被写体と情報被写体との相対位置を算出することが可能である。このため、他の識別被写体の正確な位置を特定できるので、予め生成されている仮想画像を、実画像の正確な位置に配置した合成画像を生成することが可能である。このため、撮影範囲に他の識別被写体しか含まれていない場合であっても、仮想画像と実画像とを適切な位置に配置して合成することが可能である。 According to such an image composition method, the relative position between the identification subject and the other identification subject is calculated, and the calculated relative position between the identification subject and the other identification subject are stored in association with each other. It is possible to calculate the relative position between another identification subject and the information subject based on the relative position between the identifications and the relative position between the information identifications. For this reason, since the exact position of another identification subject can be specified, it is possible to generate a composite image in which a virtual image generated in advance is arranged at an accurate position of the actual image. For this reason, even when only another identification subject is included in the shooting range, the virtual image and the real image can be arranged and combined at an appropriate position.
かかる画像合成方法であって、新たに撮影した実画像の画像データに、前記識別被写体と、前記識別被写体と異なる他の識別被写体とが含まれていた場合に、前記新たに撮影した前記実画像の画像データに基づいて、前記識別被写体と前記他の識別被写体との識別同士間相対位置を算出し、算出した前記識別同士間相対位置と前記情報識別間相対位置とに基づいて、前記位置情報被写体と前記他の識別被写体との新たな情報識別間相対位置を算出し、算出した前記新たな情報識別間相対位置と前記他の識別被写体とを対応づけた新たな識別被写体情報を記憶することが望ましい。 In this image composition method, when the image data of a newly captured actual image includes the identified subject and another identified subject different from the identified subject, the newly captured actual image Based on the image data, the relative position between the identification subject and the other identification subject is calculated, and based on the calculated relative position between the identification and the relative position between the information identification, the position information A new information identification relative position between the subject and the other identification subject is calculated, and new identification subject information in which the calculated new information identification relative position is associated with the other identification subject is stored. Is desirable.
このような画像合成方法によれば、識別被写体と他の識別被写体との識別同士間相対位置を算出し、算出した識別同士間相対位置と情報識別間相対位置とに基づいて、位置情報被写体と他の識別被写体との新たな情報識別間相対位置を算出し、算出した新たな情報識別間相対位置と他の識別被写体とを対応づけて記憶するので、位置情報被写体に対する他の識別被写体の相対位置を特定することが可能である。このため、撮影範囲に他の識別被写体しか含まれていない場合であっても、記憶されている新たな情報識別間相対位置に基づいて仮想画像と実画像とを適切な位置に配置して合成することが可能である。 According to such an image composition method, the relative position between the identification subject and another identification subject is calculated, and based on the calculated relative position between the identification and the relative position between the information identification, Since a new relative position between information identifications with other identification subjects is calculated and the calculated new relative position between information identifications and the other identification subjects are stored in association with each other, the relative position of the other identification subjects with respect to the positional information subject It is possible to specify the position. For this reason, even when only other identification subjects are included in the shooting range, the virtual image and the real image are arranged at an appropriate position based on the new stored relative position between information identification and synthesized. Is possible.
かかる画像合成方法であって、新たに撮影した実画像の画像データに、前記識別被写体情報が既に記憶されている前記識別被写体が含まれている場合には、記憶されている前記識別被写体情報に基づいて前記実画像と前記仮想画像とを合成することが望ましい。 In this image composition method, when the identified subject for which the identified subject information is already stored is included in the image data of a newly captured real image, the stored identified subject information is included in the stored identified subject information. It is desirable to synthesize the real image and the virtual image based on this.
このような画像合成方法によれば、新たに撮影した実画像の画像データに含まれていた識別被写体の識別被写体情報が既に記憶されている場合には、記憶されている識別被写体情報に基づいて、仮想画像と実画像とを適切な位置に配置して容易に合成することが可能である。 According to such an image composition method, when the identification subject information of the identification subject included in the image data of the newly photographed real image is already stored, it is based on the stored identification subject information. The virtual image and the real image can be easily combined by arranging them at appropriate positions.
本発明によれば、仮想画像が対応づけられた特定の被写体が含まれない撮影範囲であっても、特定の被写体にて対応づけられた、実画像上の位置に仮想画像が合成された合成画像を生成することが可能である。 According to the present invention, even in a shooting range that does not include a specific subject to which a virtual image is associated, a composition in which a virtual image is synthesized at a position on a real image that is associated with a specific subject. An image can be generated.
以下、本発明の一実施形態について図面を用いて詳細に説明する。
図1は、本発明に係る画像合成方法を実現するための装置の一例を示すブロック図である。
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing an example of an apparatus for realizing an image composition method according to the present invention.
本実施形態の画像合成方法は、たとえば、被写体を撮影した実画像に、撮影された被写体に含まれる情報被写体の情報に基づいて予め形成されている仮想画像を重ね合わせた合成画像を表示する際に、仮想画像が対応づけられた情報被写体が、撮影範囲から外れても、情報被写体にて対応づけられた、実画像上の位置に仮想画像を合成することを可能とする画像合成方法である。 The image composition method of the present embodiment is, for example, when displaying a composite image in which a virtual image formed in advance based on information on an information subject included in a photographed subject is superimposed on a real image obtained by photographing the subject. In addition, even if the information subject associated with the virtual image is out of the shooting range, the image composition method can synthesize the virtual image at a position on the real image associated with the information subject. .
図2は、本実施形態にて撮影される被写体と撮影範囲のイメージを示す図である。図3は、本実施形態にて実画像と仮想画像の全体とが合成された合成画像のイメージを示す図である。 FIG. 2 is a diagram illustrating an image of a subject and a shooting range shot in the present embodiment. FIG. 3 is a diagram illustrating an image of a combined image obtained by combining the real image and the entire virtual image in the present embodiment.
本実施形態では、図2に示すように、室内の壁3に、例えば、QRコード(登録商標)やバーコードなどの情報を示す情報被写体としてのマーカー21が設けられており、このマーカー21とともに室内を撮影した際に、マーカー21に対応づけられた仮想画像としての例えばシステムキッチンの仮想画像23と、マーカー21の位置情報Pとに基づいて、撮影した実画像20とマーカー21に対応づけられたシステムキッチンの仮想画像23とを合成する例について説明する。
In the present embodiment, as shown in FIG. 2, a
また、本実施形態においては、2種類のマーカー21を用いている。2種類のマーカー21のうちの一方のマーカー21は、撮影した実画像20を解析してマーカー21であることを識別可能であり、仮想画像23が対応づけられた情報被写体としての情報マーカー21aであり、他方のマーカー21は、情報を有していないが撮影した実画像20を解析してマーカー21であることを識別可能な識別被写体としての識別マーカー21bである。また、情報マーカー21a及び識別マーカー21bは、説明の便宜上、図面では情報マーカー21aを「A」にて示し、以下、Aマーカー21aとする。また、識別マーカー21bは同一のマーカー21bを2つ使用するが、説明にてこれらを区別するために、一方の識別マーカー21bを「B」にて示し、以下、Bマーカー21bとし、他方の識別マーカー21bを「C」にて示し、以下、Cマーカー21bとして示す。
In the present embodiment, two types of
情報マーカー21aは、当該情報マーカー21aが設けられている位置と、仮想画像23の所定の位置とが対応づけた相対位置を示す位置情報Pを有しており、情報マーカー21aを含む被写体が撮影されると、情報マーカー21aに対応づけられた仮想画像23が、位置情報Pに基づいて、マーカー21aが設けられている位置に位置あわせされて実画像20と合成される。例えば、Aマーカー21aには、システムキッチンの仮想画像23が対応づけられており、Aマーカー21aに対応づけられているシステムキッチンの仮想画像23の所定の位置が、当該Aマーカー21aが設けられている位置に位置あわせされると、図3に示すように、システムキッチンの仮想画像23が実画像20の室内の適切な位置に配置されるような位置にAマーカー21aが設けられている。このため、Aマーカー21aは、例えばGPS等を用いて正確に実測して配置され、配置されている自身の、地球上における絶対位置を示す位置情報を有している。
The
ところで、室内は広さが限られるため、図3に示すように、システムキッチンの仮想画像23の全体が、撮影範囲、具体的には、カメラのファインダー内などに含まれるとは限らない。このため、Aマーカー21aを含むように撮影範囲を定めると、システムキッチンの仮想画像23のうちの撮影範囲外に位置している部位は、見ることができず、撮影範囲外に位置している部位を見るために、撮影範囲を移動するとAマーカー21aが撮影範囲から外れてしまい、撮影範囲にシステムキッチンの仮想画像23が現れず、システムキッチンの仮想画像23の見たい部位を見ることができない場合がある。
By the way, since the size of the room is limited, as shown in FIG. 3, the entire
本発明は、撮影範囲内にAマーカー21aが存在しない場合であっても、適切な位置に配置されているように見えるシステムキッチンの仮想画像23の見たい部位を見ることを可能とする画像合成方法である。
The present invention is an image composition that makes it possible to see a desired portion of the
このような画像合成方法を実現するための画像合成装置1は、被写体を撮影する撮像部10と、撮影した被写体の実画像と予め形成されている仮想画像とを合成する処理を含み画像合成装置を制御する制御部12と、画像を合成するために必要な各種情報やデータが記憶される記憶部14と、合成された合成画像を表示する表示部16と、本画像合成装置1を操作するための操作部18と、を有している。本実施形態の画像合成装置1は、例えば、撮像部10と、撮影した画像を表示する表示部16とを有し持ち運び可能な、例えばデジタルカメラ、デジタルビデオカメラ、携帯電話、携帯情報端末(PDA)、モバイルコンピュータなどに、画像合成処理が実行可能なプログラムが記憶されている。
An
そして、画像合成装置1の使用者が、被写体を撮影すると、表示部16に撮影された実画像が表示される。このとき、撮影された実画像20に、予め設定された、例えば、QRコード(登録商標)やバーコードなどの、所定の合成情報を示す情報被写体としてのAマーカー21aや画像データから識別可能な識別被写体としてのBマーカー21b及びCマーカー21bが含まれていた場合には、当該マーカー21を検出して情報を取得し、取得した情報に基づいて、撮影した実画像20と予め記憶されている仮想画像23とを合成した合成画像24を生成し合成画像24が表示部16に表示されるように構成されている。
Then, when the user of the
撮像部10は、例えば、デジタルカメラやデジタルビデオカメラのような、撮影により、画像を構成する複数の画素の各画像データを生成するCCDセンサーなどの撮像素子により、光情報を電気情報に変換し、変換した画像データに基づいて表示部16に画像を表示するように構成されている。
The
表示部16は、画像を構成する複数の画素の画像データを、各素子に対応させて表示することが可能な、例えば液晶パネルなどにて構成されている。ここで、各画素の画像データとは、例えば、各画素をR(レッド)成分、G(グリーン)成分、B(ブルー)成分に分解した各成分を示すデータである。
The
操作部18は、画像合成装置1を使用する使用者が、画像合成装置1に対し撮影等の操作を行ったり、設定を変更するなどの操作を行う部位であり、少なくとも実画像20を撮影するための所謂シャッターを有している。
The
記憶部14は、本画像合成装置1にて合成画像を生成するための各種情報が記憶されており、また、情報が記憶される情報記憶領域14aと、合成画像を生成する処理の中で画像データが書き換えられていく作業領域となる画像仮想展開領域14bとを有している。
The
情報記憶領域14aには、被写体に含まれているAマーカー21aに対応づけられた仮想画像23を特定する情報、仮想画像23の実画像20に対して配置すべき位置を、Aマーカー21aが設けられている位置および本画像合成装置1の撮影時の視点位置との相対位置にて示す位置情報Pなどが記憶されている。また、情報記憶領域14aには、撮影された実画像20に含まれたBマーカー21b、Cマーカー21b等の識別マーカーと仮想画像23と対応づけて合成画像を生成するための情報が記憶される記憶領域が含まれている。
In the
画像仮想展開領域14bは、撮影された画像データが画素毎に記憶される記憶領域である。上述したように、各画素の画像データはR,G,Bの3つの成分を示すデータを有するので、画像仮想展開領域14bは、合成画像を構成する画素数の3倍の記憶領域を有している。
The image
画像仮想展開領域14bに記憶される画像データは、合成画像を生成する際には必要に応じて対応する画素の画像データが書き換えられる。そして、画像仮想展開領域14bに画素毎に記憶された3つのデータは、各画素の画像データが書き換えられる場合には、R成分、G成分、B成分の各データがそれぞれ書き換えられる。このとき、画像仮想展開領域14bは、記憶領域が表示部16または撮像部10の素子と同様に配列されている必要はなく、各記憶領域の画像データが、表示部16または撮像部10の素子と対応づけられて記憶されていればよい。
The image data stored in the image
制御部12は、使用者により操作部18が操作されることにより、撮像部10や表示部16を制御したり、撮影された実画像20の画像データからマーカー21を抽出し、マーカー21にて示される情報を解析する解析処理、解析された情報に基づいて、実画像20と記憶部14に記憶されている仮想画像23とを合成する画像合成処理等の各種処理を実行する。
The
次に、制御部12による画像合成方法について説明する。
Next, an image composition method by the
本実施形態の画像合成方法は、画像合成装置1に設けられ、撮像部10にて撮影するための操作部18であるシャッターが操作されて処理が開始される。このとき、画像合成装置1が、デジタルカメラなどのように、単に実画像を撮影するときと、合成画像を生成するときとで処理を切り替えるスイッチが操作部18に設けられていてもよい。また、常に合成画像を生成する処理が実行されるように設定されており、撮影された実画像にマーカー21が検出されたときのみ合成画像を生成する処理を実行することとしてもよい。
The image composition method according to the present embodiment is provided in the
図4は、本実施形態の画像合成方法を説明するためのフローチャートであり、図5は、実施形態において撮影されたAマーカーを含む実画像と表示部に表示される画像とを対応づけて説明するためのイメージ図である。図6は、実施形態において撮影されたAマーカーを含まない実画像と表示部に表示される画像とを対応づけて説明するためのイメージ図である。 FIG. 4 is a flowchart for explaining the image composition method of the present embodiment, and FIG. 5 explains the real image including the A marker photographed in the embodiment in association with the image displayed on the display unit. It is an image figure for doing. FIG. 6 is an image diagram for explaining a real image that does not include the A marker photographed in the embodiment and an image displayed on the display unit in association with each other.
制御部12は、シャッターが操作されると撮像部10にて被写体を撮影し、撮影された実画像20を構成する各画素の画像データを生成し(S1)、生成した画像データを記憶部14の画像仮想展開領域14bに記憶する(実画像記憶工程S2)。ここでは、図2及び図5(a)に示すような撮影範囲F1にて撮影されたとする。また、このとき、制御部12は実画像の撮影時に撮像部10から取得した情報に基づき、一般的なカメラにも搭載されているオートフォーカス機構の原理を利用して、例えば、レンズの上半分と下半分にて生じる重心位置の違いを利用して被写体と、撮像部10の視点位置との距離を計測し、計測した距離情報を記憶部14に記憶する。
When the shutter is operated, the
次に制御部12は、実画像20の画像データに情報被写体としてのAマーカー21aが撮影されているか否かを解析する(S3)。このとき、実画像20の画像データにAマーカー21aが撮影されていた場合には(S4)、Aマーカー21aに対応づけられている情報を記憶部14から取得する(S5)。このとき、撮影した実画像20と合成する仮想画像23の情報と仮想画像23を合成するための位置情報P、すなわち、Aマーカー21aの位置に位置あわせされる仮想画像上の位置を示す情報とを取得する(S5)。実画像20の画像データにAマーカー21aが撮影されていなかった場合の処理については後述する。
Next, the
次に制御部12は、取得した情報に基づいて、画像仮想展開領域14bに記憶されている実画像20の対象となる画素の画像データを、情報マーカー21に対応付けられ情報記憶領域14aに記憶されている仮想画像23の画像データに書き換えて合成画像24を生成する(S6)。
Next, based on the acquired information, the
次に制御部12は、撮影した実画像20に識別マーカー21が含まれているか否かを解析する(S9)。このとき、識別マーカー21が含まれていない場合には、画像仮想展開領域14bに記憶されている、図5(b)に示すような合成画像24を表示部16に表示して(S13)、処理を終了する。本実施形態の場合には、Bマーカー21bが含まれていることが検出される。
Next, the
そして、Bマーカー21bのような識別マーカー21bが含まれていた場合には、検出した識別マーカー21が既に情報記憶領域14aに記憶されているか否かを判定する(S10)。このとき、検出した識別マーカー21bの情報が記憶されている場合には、その他に識別マーカー21bが含まれているか否かが判定され、含まれていない場合には、画像仮想展開領域14bに記憶されている、図5(b)に示すような合成画像24を表示部16に表示して(S13)、処理を終了する。
If the
一方、検出した識別マーカー21の情報が記憶されていない場合には、撮影時に計測した、被写体と撮像部10の視点位置との距離を示す距離情報及び合成画像上における、情報マーカー21aと識別マーカー21bの位置から、現実の情報マーカー21aに対する識別マーカー21bの相対位置(情報識別間相対位置Q)を算出する(S11)。そして、算出した相対位置(情報識別間相対位置Q)を示す情報とシステムキッチンの仮想画像23とを対応づけた識別被写体情報Tを情報記憶領域14aに記憶する(識別被写体情報記憶工程S12)。その後、実画像20に、その他に識別マーカー21が含まれているか否かが判定され(S9)、含まれていない場合には、画像仮想展開領域14bに記憶されている、図5(b)に示すような合成画像24を表示部16に表示して(S13)、処理を終了する。また、実画像20に、その他に識別マーカー21が含まれていた場合には、含まれていた識別マーカー21bに対応づけられた識別被写体情報Tの情報記憶領域14aにおける有無を判定し(S10)、記憶されていない場合には、相対位置(情報識別間相対位置Q)を算出し(S11)、算出した相対位置(情報識別間相対位置Q)の情報と仮想画像23とを対応づけた識別被写体情報Tを情報記憶領域14aに記憶する処理(識別被写体情報記憶工程S12)を繰り返す。
On the other hand, when the information of the detected
本実施形態の場合には、撮影した実画像20を解析してBマーカー21bが含まれていることが検出されたのち、Bマーカー21bに対応づけられた識別被写体情報Tが情報記憶領域14aに記憶されていないと判定され(S10)、撮影時に計測した距離情報及び合成画像24上における、Aマーカー21aとBマーカー21bとの位置から、現実のAマーカー21aに対するBマーカー21bの相対位置(情報識別間相対位置Q)を算出し(S11)、算出した相対位置(情報識別間相対位置Q)を示す情報とシステムキッチンの仮想画像23とを対応づけた識別被写体情報Tを情報記憶領域14aに記憶する(識別被写体情報記憶工程S12)。そして、撮影範囲(図2、F1)には、他に識別マーカー21は含まれていないので(S9)、画像仮想展開領域14bに記憶されている、図5(b)に示すような合成画像24を表示部16に表示して(S13)、処理を終了する。
In the case of the present embodiment, after analyzing the photographed
次に、画像合成装置1の向きが変更され、図2及び図6(a)に示すような撮影範囲F2にて新たに撮影され、撮影された実画像20を構成する各画素の画像データが生成され(S1)、生成された画像データを記憶部14の画像仮想展開領域14bに記憶する(実画像記憶工程、S2)。また、この場合にも、被写体と撮像部10の視点位置との距離を計測し、計測した距離情報を情報記憶領域14aに記憶する。
Next, the orientation of the
次に制御部12は、実画像20の画像データに情報被写体としてのAマーカー21aが撮影されているか否かを解析する(S3)。このとき、実画像20の画像データにはAマーカー21aが含まれていない。
Next, the
撮影した実画像20にAマーカー21aが含まれていない場合には(S4)、撮影した実画像20に既に記憶されている識別マーカー21bが含まれているか否かを解析する(S7)。このとき、識別マーカー21が含まれていない場合には、画像仮想展開領域14bに記憶されている実画像20を表示部16に表示して(S13)処理を終了する。
If the photographed
一方、識別マーカー21bに対応づけられた識別被写体情報Tが情報記憶領域14aに記憶されている場合には、記憶されている識別マーカー21bの相対位置を示す識別同士間相対位置Rに基づいて、現状の撮影範囲F2の実画像に合成されるべき仮想画像23の画像データを特定し、画像仮想展開領域14bに記憶されている画像データの対応する画素を特定した仮想画像23の画像データに書き換える(画像合成工程S8)。
On the other hand, when the identification subject information T associated with the
その後、実画像20に、その他に識別マーカー21が含まれているか否かが判定され(S9)、含まれていない場合には、画像仮想展開領域14bに記憶されている合成画像24を表示部16に表示して(S13)、処理を終了する。
Thereafter, it is determined whether or not the
実画像20に、その他に識別マーカー21が含まれていた場合には(S9)、含まれていた識別マーカー21bに対応づけられた識別被写体情報Tの情報記憶領域14aにおける有無を判定し(S10)、記憶されていない場合には、相対位置(識別同士間相対位置R)を算出し(S11)、算出した相対位置(識別同士間相対位置R)と仮想画像23とを対応づけた識別被写体情報Tを情報記憶領域14aに記憶する処理(識別被写体情報記憶工程 S12)を繰り返す。
If the
本実施形態の場合には、図2及び図6(a)に示すように、撮影範囲F2にはAマーカー21aが含まれていないので(S4)、実画像20に既に記憶されている識別マーカー21bが含まれているか否かが判定される(S7)。このとき、Bマーカー21bに対応づけられた識別被写体情報Tは、情報記憶領域14aに記憶されているので、Bマーカー21bの識別被写体情報T、すなわち、Bマーカー21bのAマーカー21aに対する相対位置を示す情報識別間相対位置Qに基づいて、現状の撮影範囲F2の実画像に合成されるべきシステムキッチンの仮想画像23の画像データを特定し、画像仮想展開領域14bに記憶されている画像データの対応する画素を特定した仮想画像23の画像データに書き換える(画像合成工程S8)。
In the present embodiment, as shown in FIGS. 2 and 6A, since the
その後、実画像20が解析されると、Cマーカー21bが検出されるので(S9)、検出されたCマーカー21bに対応づけられた識別被写体情報Tの情報記憶領域14aにおける有無を判定する(S10)。このとき、Cマーカー21bに対応づけられた識別被写体情報Tは記憶されていないので相対位置(識別同士間相対位置R)を算出し(S11)、算出した相対位置(識別同士間相対位置R)の情報と仮想画像23とを対応づけた識別被写体情報Tを記憶領域14aに記憶して(識別被写体情報記憶工程S12)、画像仮想展開領域14bに記憶されている、図6(b)に示すような合成画像24を表示部16に表示して(S13)、処理を終了する。
Thereafter, when the
本実施形態の画像合成方法によれば、被写体との相対位置を示す位置情報Pを有する情報マーカー21aと識別マーカー21bとを含む被写体を撮影した画像データに基づいて算出した情報識別間相対位置Qと仮想画像23とが記憶されているので、情報マーカー21aを含まず識別マーカー21bを含む被写体を撮影した場合であっても、画像上における識別マーカー21bの位置から、情報マーカー21aの位置を特定することが可能である。そして、生成する合成画像24にて実画像20と合成される仮想画像23は、情報マーカー21aが有する被写体との相対位置を示す位置情報Pに基づいて実画像20と合成されるので、情報マーカー21aの位置が特定されれば、仮想画像23と実画像20とを適切な位置にて合成することが可能である。このため、情報マーカー21aを含まず識別マーカー21bを含む被写体を撮影した場合であっても、仮想画像23と実画像20とを適切な位置に配置して合成することが可能である。そして、仮想画像23が対応づけられた情報マーカー21aが含まれない撮影範囲F2であっても、情報マーカー21aの位置情報Pに基づいて仮想画像23が位置決めされて合成された合成画像24における撮影範囲F2に対応する範囲の合成画像24を生成することが可能である。
According to the image composition method of the present embodiment, the relative position Q between information identifications calculated based on the image data obtained by photographing the subject including the
また、識別マーカー21bと他の識別マーカー21bとの識別同士間相対位置Rを算出し、算出した識別同士間相対位置Rと仮想画像23とを対応づけて記憶するので、記憶された識別同士間相対位置Rと情報識別間相対位置Qとに基づいて、他の識別マーカー21bと情報マーカー21aとの相対位置を算出することが可能である。このため、識別同士間相対位置Rと仮想画像23とを対応づけた新たな識別被写体情報Tを記憶することにより、撮影範囲に他の識別マーカー21bしか含まれていない場合であっても、仮想画像23と実画像20とを適切な位置に配置して合成することが可能である。
Moreover, since the relative position R between the identifications of the
また、識別マーカー21bと他の識別マーカー21bとの識別同士間相対位置Rを算出し、算出した識別同士間相対位置Rと情報識別間相対位置Qとに基づいて、情報マーカー21aと他の識別マーカー21bとの情報識別間相対位置Qを算出し、算出した情報識別間相対位置Qと仮想画像23とを対応づけて記憶するので、他の識別マーカー21bと情報マーカー21aとの相対位置と仮想画像23とを対応づけて記憶しておくことが可能である。このため、撮影範囲に他の識別マーカー21bしか含まれていない場合であっても、記憶されている情報識別間相対位置Qに基づいて仮想画像23と実画像20とを適切な位置に配置して合成することが可能である。
Further, the relative position R between the
また、新たに撮影した実画像20の画像データに含まれていた識別マーカー21bの識別被写体情報Tが既に記憶されている場合には、記憶されている識別被写体情報Tに基づいて、仮想画像23と実画像20とを適切な位置に配置して容易に合成することが可能である。
Further, when the identification subject information T of the
このように、Aマーカー21aを含まずBマーカー21b、Cマーカー21bを含む被写体を撮影することにより、仮想画像23の全体が含まれる合成画像24の全体ではなく、例えば、Aマーカー21aから離れた位置を撮影範囲F2により特定される仮想画像23の一部を合成の対象とした合成画像24を生成することが可能である。また、Bマーカー21b、Cマーカー21bのような識別マーカー21bを複数設けることにより、Aマーカー21aからより離れた位置の合成画像24を生成することが可能である。
In this way, by shooting a subject that does not include the
例えば、撮影範囲F1には、Aマーカー21aが含まれているので、撮影範囲F1の合成画像24では、システムキッチンの仮想画像23を実画像20上に合成することは可能である。ところが、撮影範囲Fにはマーカー21としてAマーカー21aのみが含まれている場合には、システムキッチンのレンジフード23aの周辺を見ることはできない。
For example, since the
このため、撮影範囲Fの範囲内に、図5(a)に示すように、Aマーカー21aとともに含まれるようにBマーカー21bを設け、Aマーカー21aに対するBマーカー21bの相対位置を示す情報を予め記憶しておき、Bマーカー21bとレンジフード23aの周辺が含まれる撮影範囲F2にて被写体を撮影することにより、撮影された実画像のBマーカー21bの位置と記憶されているAマーカー21aに対するBマーカー21bの相対位置を示す情報により、Aマーカー21aの位置と撮影範囲F2との位置を特定することが可能である。そして、仮想画像23の撮影範囲F2に適した領域の画像を、撮影範囲F2の実画像20と合成して表示することを可能としている。このとき、Bマーカー21bの位置精度が問われず、撮影範囲F1内にAマーカー21aとともに含まれるように設ければ良いので、Aマーカー21aが撮影範囲から外れてしまうような位置であっても、仮想画像23を容易にかつ正確に合成することが可能である。また、さらに離れた位置の画像を見たい場合には、既に記憶されているマーカー21と同じ撮影範囲内に新たな識別マーカー21bが含まれるように撮影範囲を設定していけば、Aマーカー21aの位置に拘わらず所望の位置の合成画像24を生成すること画可能である。
For this reason, as shown in FIG. 5A, a
上記実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることはいうまでもない。 The above embodiment is for facilitating the understanding of the present invention, and is not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.
上記実施形態においては、情報マーカー21aが含まれていない撮影範囲に複数の識別マーカー21bが含まれていた場合に、2つの識別マーカー21b間の識別同士間相対位置Rを算出し、算出した識別同士間相対位置Rと仮想画像23とを対応づけた識別被写体情報Tを情報記憶領域14aに記憶する例について説明したが、これに限るものではない。例えば、既に識別被写体情報Tが記憶されている識別マーカー21bと識別被写体情報Tが記憶されていない識別マーカー21bとの識別同士間相対位置Rを算出し、既に識別被写体情報Tが記憶されている識別マーカー21bの情報識別間相対位置Qまたは識別同士間相対位置Rとから、記憶されていない識別マーカー21bの情報識別間相対位置Qを算出し、算出された情報識別間相対位置Qと仮想画像23とを対応づけた識別被写体情報Tを情報記憶領域14aに記憶してもよい。
In the above embodiment, when a plurality of
上記実施形態おいては、Aマーカー(位置情報被写体)21aの位置をGPS等を用いて実測した地球上の絶対位置としたが、これに限るものではない。例えば、被写体となる例えば建物などに固有の基準点、及び、建物に固有の基準点から所定距離だけ離れた点であっても構わない。このような場合には、例えば、建物αの原点(0,0,0)に(1,0,0)の向きにAマーカーが貼付されていたり、建物βの原点(0,0,0)に(1,0,0)の向きにAマーカーが貼付されていてもよい。また、建物αのAマーカーと建物βのAマーカーとの区別が必要な場合には、各々のAマーカーに、例えば建物αの場合には「建物αの原点(0,0,0)に(1,0,0)の向きに貼付されている」というような建物を特定する情報を含む位置情報が対応づけられている。 In the above embodiment, the position of the A marker (position information subject) 21a is the absolute position on the earth measured using GPS or the like, but is not limited thereto. For example, it may be a reference point unique to a building or the like that is a subject, and a point that is a predetermined distance away from a reference point unique to the building. In such a case, for example, an A marker is attached in the direction of (1, 0, 0) to the origin (0, 0, 0) of the building α, or the origin (0, 0, 0) of the building β. In addition, an A marker may be attached in the direction of (1, 0, 0). Further, when it is necessary to distinguish between the A marker of the building α and the A marker of the building β, for example, in the case of the building α, “to the origin (0, 0, 0) of the building α ( Position information including information specifying a building such as “Attached in the direction of (1, 0, 0)” is associated.
このとき、Aマーカー(位置情報被写体)には仮想画像23を特定するための情報が対応づけられておらず、仮想画像を特定するための識別マーカーを別途備えていることとしてもよい。具体的には、建物構造モデルの仮想画像が対応づけられたXマーカー(識別マーカー)や、設備モデルの仮想画像が対応づけられたYマーカー(識別マーカー)を予め備えておく。Xマーカー及びYマーカーは、Aマーカーとの相対位置情報も対応づけられている。そして、例えば、Aマーカーとの相対位置情報を有するBマーカーとXマーカーまたはYマーカーが撮影された実画像に含まれる場合には、Bマーカーに基づいてAマーカーの位置を特定し、特定されたAマーカーの位置に基づいて、XマーカーまたはYマーカーに対応づけられた仮想画像を配置して合成画像を生成することが可能である。このとき、Bマーカーに基づいて特定されたAマーカーが建物αに設けられたAマーカーの場合には、XマーカーまたはYマーカーに基づいて建物αの建物構造モデルの仮想画像または建物αの設備モデルの仮想画像を合成し、Bマーカーに基づいて特定されたAマーカーが建物βに設けられたAマーカーの場合には、XマーカーまたはYマーカーに基づいて建物βの建物構造モデルの仮想画像または建物βの設備モデルの仮想画像を合成することが可能である。すなわち、マーカーの汎用性を高めることが可能である。
At this time, information for specifying the
上記実施形態においては、仮想画像23がAマーカー21aに対応づけられている例について説明したが、これに限るものではない。例えば、識別マーカーであるBマーカー21bやCマーカー21bに対応づけられていても良い。この場合には、撮影された実画像20からBマーカー21bまたはCマーカー21bが検出されると、Bマーカー21bまたはCマーカー21bに対応づけられた仮想画像23が特定され、例えばAマーカー21aの位置を基準として仮想画像23が配置されるように設定されていたとする。このとき、実画像20にBマーカー21bが検出された場合には、算出された情報識別間相対位置Qに基づいて仮想画像23が位置合わせされるとともに、Bマーカー21bの仮想画像23上の位置が特定され、特定されたBマーカー21bの位置と撮影範囲とに基づいて、実画像20と仮想画像23とが合成される。また、実画像20にCマーカー21bが検出された場合には、算出された情報識別間相対位置Qと識別同士間相対位置Rに基づいて仮想画像23が位置合わせされるとともに、Cマーカー21bの仮想画像23上の位置が特定され、特定されたCマーカー21bの位置と撮影範囲とに基づいて、実画像20と仮想画像23とが合成される。また、Cマーカー21bの場合には、識別同士間相対位置と情報識別間相対位置とに基づいて、Aマーカー21aとCマーカー21bとの新たな情報識別間相対位置が記憶されている場合には、新たな情報識別間相対位置に基づいて仮想画像23が位置合わせされるとともに、Cマーカー21bの仮想画像23上の位置が特定され、特定されたCマーカー21bの位置と撮影範囲とに基づいて、実画像20と仮想画像23とが合成されてもよい。
In the said embodiment, although the example with which the
また、仮想画像23は、マーカー21に対応づけられておらず、画像合成装置1の使用者が操作により、仮想画像23を選択しても良い。この場合には、仮想画像23と実画像20とを位置合わせするための基準となる位置が、仮想画像23に対応づけられていても良いし、使用者が操作により基準位置を設定しても良い。
Further, the
上記実施形態では、静止画像を合成する例について説明したが、動画を合成する場合には、動画のフレームレートに合わせて、合成した画像を生成して表示すればよい。例えば、フレームレートが15fpsであれば、1秒間に15回、上記のように画像の合成処理を繰り返し表示部の画像を書き換えることにより実現可能である。 In the above embodiment, an example of combining still images has been described. However, when combining moving images, a combined image may be generated and displayed in accordance with the frame rate of the moving images. For example, if the frame rate is 15 fps, it can be realized by rewriting the image on the display unit by repeating the image composition processing as described above 15 times per second.
1 画像合成装置
3 壁
10 撮像部
12 制御部
14 記憶部
14a 情報記憶領域
14b 画像仮想展開領域
16 表示部
18 操作部
20 実画像
21 マーカー
21a 情報マーカー(Aマーカー)
21b 識別マーカー(Bマーカー、Cマーカー)
23 仮想画像
24 合成画像
F1 撮影範囲
F2 撮影範囲
P 位置情報
Q 情報識別間相対位置
R 識別同士間相対位置
T 識別被写体情報
DESCRIPTION OF
21b Identification marker (B marker, C marker)
23
Claims (4)
前記被写体に、自身の位置を示す位置情報を有し前記仮想画像が対応づけられた位置情報被写体と、撮影された実画像から識別可能であって前記仮想画像が対応づけられていない識別被写体とを貼付する工程と、
前記位置情報被写体と、前記識別被写体と、を含む前記被写体を撮影し、撮影された前記実画像を構成する画像データを記憶する実画像記憶工程と、
前記画像データに基づいて、前記位置情報被写体に対する前記識別被写体の情報識別間相対位置を算出し、算出した前記情報識別間相対位置と前記仮想画像とを前記識別被写体に対応づけた識別被写体情報を、記憶する識別被写体情報記憶工程と、
前記位置情報被写体を含まず前記識別被写体を含む前記被写体を撮影した際に、前記識別被写体情報に基づいて前記実画像と前記仮想画像とを合成する画像合成工程と、
を有することを特徴とする画像合成方法。 An image synthesis method for synthesizing a real image obtained by photographing a subject and a virtual image generated in advance,
A position information subject having position information indicating its own position and associated with the virtual image, and an identified subject that is identifiable from the captured real image and not associated with the virtual image ; A process of attaching,
A real image storage step of photographing the subject including the position information subject and the identification subject, and storing image data constituting the photographed real image;
Based on the image data, a relative position between information identifications of the identification subject with respect to the position information subject is calculated, and identification subject information in which the calculated information identification relative position and the virtual image are associated with the identification subject is obtained. An identification subject information storing step for storing,
An image synthesis step of synthesizing the real image and the virtual image based on the identified subject information when the subject including the identified subject is captured without including the position information subject;
An image synthesizing method characterized by comprising:
新たに撮影した実画像の画像データに、前記識別被写体と、前記識別被写体と異なる他の識別被写体とが含まれていた場合に、
前記新たに撮影した前記実画像の画像データに基づいて、前記識別被写体と前記他の識別被写体との識別同士間相対位置を算出し、算出した前記識別同士間相対位置と前記他の識別被写体とを対応づけた新たな識別被写体情報を記憶することを特徴とする画像合成方法。 The image composition method according to claim 1,
When the image data of a newly captured real image includes the identification subject and another identification subject different from the identification subject,
Based on the image data of the newly captured real image, a relative position between the identification subject and the other identification subject is calculated, and the calculated relative position between the identification subject and the other identification subject are calculated. And storing new discriminated subject information associated with each other.
新たに撮影した実画像の画像データに、前記識別被写体と、前記識別被写体と異なる他の識別被写体とが含まれていた場合に、
前記新たに撮影した前記実画像の画像データに基づいて、前記識別被写体と前記他の識別被写体との識別同士間相対位置を算出し、算出した前記識別同士間相対位置と前記情報識別間相対位置とに基づいて、前記位置情報被写体と前記他の識別被写体との新たな情報識別間相対位置を算出し、算出した前記新たな情報識別間相対位置と前記他の識別被写体とを対応づけた新たな識別被写体情報を記憶することを特徴とする画像合成方法。 The image composition method according to claim 1,
When the image data of a newly captured real image includes the identification subject and another identification subject different from the identification subject,
Based on the image data of the newly captured real image, a relative position between the identified subject and the other identified subject is calculated, and the calculated relative position between the identified subject and the relative position between the information identified Based on the above, a new information identification relative position between the position information subject and the other identification subject is calculated, and the new information identification relative position calculated is associated with the other identification subject. A method for synthesizing an image, characterized in that the identification subject information is stored.
新たに撮影した実画像の画像データに、前記識別被写体情報が既に記憶されている前記識別被写体が含まれている場合には、記憶されている前記識別被写体情報に基づいて前記実画像と前記仮想画像とを合成することを特徴とする画像合成方法。 An image composition method according to any one of claims 1 to 3,
When the identification subject for which the identification subject information is already stored is included in the image data of the newly captured real image, the real image and the virtual image are based on the stored identification subject information. An image composition method characterized by compositing an image.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011038748A JP5764969B2 (en) | 2011-02-24 | 2011-02-24 | Image composition method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011038748A JP5764969B2 (en) | 2011-02-24 | 2011-02-24 | Image composition method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2012175665A JP2012175665A (en) | 2012-09-10 |
| JP5764969B2 true JP5764969B2 (en) | 2015-08-19 |
Family
ID=46978073
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011038748A Active JP5764969B2 (en) | 2011-02-24 | 2011-02-24 | Image composition method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5764969B2 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015014514A (en) * | 2013-07-04 | 2015-01-22 | パイオニア株式会社 | Identification device |
| DE102019104172A1 (en) * | 2019-02-19 | 2020-08-20 | ACO Severin Ahlmann GmbH & Co Kommanditgesellschaft | Computer-implemented method, computer program product and system for determining installation data relating to the location of at least one water-technical facility to be installed |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4242529B2 (en) * | 1999-10-27 | 2009-03-25 | オリンパス株式会社 | Related information presentation device and related information presentation method |
| JP4367926B2 (en) * | 2004-05-17 | 2009-11-18 | キヤノン株式会社 | Image composition system, image composition method, and image composition apparatus |
| JP4599184B2 (en) * | 2005-02-02 | 2010-12-15 | キヤノン株式会社 | Index placement measurement method, index placement measurement device |
| JP5423406B2 (en) * | 2010-01-08 | 2014-02-19 | ソニー株式会社 | Information processing apparatus, information processing system, and information processing method |
-
2011
- 2011-02-24 JP JP2011038748A patent/JP5764969B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2012175665A (en) | 2012-09-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8410441B2 (en) | Thermal imaging camera for taking thermographic images | |
| CN103179347B (en) | The method of photographing panorama picture | |
| TWI523517B (en) | Image capturing device, image alignment method, and storage medium for performing the method | |
| US9549122B2 (en) | Imaging apparatus, photographing guide displaying method for imaging apparatus, and non-transitory computer readable medium | |
| JP2012065263A (en) | Imaging apparatus | |
| KR101574636B1 (en) | Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage | |
| US9918014B2 (en) | Camera apparatus and method for generating image signal for viewfinder | |
| WO2016002355A1 (en) | Image capturing device and image capturing method | |
| JP6456783B2 (en) | Bar arrangement measuring device | |
| JP5691629B2 (en) | Image composition method | |
| JP5764969B2 (en) | Image composition method | |
| JP5776218B2 (en) | Image composition method | |
| JP5691632B2 (en) | Image composition method | |
| JP2018032991A (en) | Image display unit, image display method and computer program for image display | |
| JP2012175667A (en) | Image composition method | |
| JP2016008830A (en) | Surveying device, method for displaying of the surveying device, and program | |
| JP2012175668A (en) | Image combination method | |
| CN108700403A (en) | Information processing unit, information processing method and program | |
| JP2016134686A (en) | Imaging apparatus and imaging method | |
| JP7769671B2 (en) | Display control device, display control method, and imaging system | |
| JP2015092780A (en) | Imaging apparatus and imaging method | |
| JP6395156B2 (en) | Imaging apparatus and imaging method | |
| JP2015056790A (en) | Image processing apparatus, image processing method, and program | |
| JPWO2017134882A1 (en) | Information processing apparatus, information processing method, and program | |
| JP2017112442A (en) | Imaging apparatus, imaging method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140120 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141009 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141021 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141204 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150113 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150226 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150519 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150601 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5764969 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |