JP5764969B2 - Image composition method - Google Patents

Image composition method Download PDF

Info

Publication number
JP5764969B2
JP5764969B2 JP2011038748A JP2011038748A JP5764969B2 JP 5764969 B2 JP5764969 B2 JP 5764969B2 JP 2011038748 A JP2011038748 A JP 2011038748A JP 2011038748 A JP2011038748 A JP 2011038748A JP 5764969 B2 JP5764969 B2 JP 5764969B2
Authority
JP
Japan
Prior art keywords
image
subject
information
identification
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011038748A
Other languages
Japanese (ja)
Other versions
JP2012175665A (en
Inventor
哲 近藤
哲 近藤
金子 智弥
智弥 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Obayashi Corp
Original Assignee
Obayashi Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Obayashi Corp filed Critical Obayashi Corp
Priority to JP2011038748A priority Critical patent/JP5764969B2/en
Publication of JP2012175665A publication Critical patent/JP2012175665A/en
Application granted granted Critical
Publication of JP5764969B2 publication Critical patent/JP5764969B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影した実画像と生成した仮想画像とを合成する画像合成方法に関する。   The present invention relates to an image composition method for compositing a captured real image and a generated virtual image.

撮影した実画像と生成した仮想画像とを合成する画像合成方法としては、例えば、撮影した撮影画像に含まれる特定の被写体と対応づけられた付加画像を、特定の被写体の位置に応じて撮影画像上に配置して合成画像を生成する画像合成方法が知られている(例えば、特許文献1参照)。このような画像合成方法にて合成された合成画像は、たとえば表示画面等に表示される。   As an image composition method for synthesizing a captured actual image and a generated virtual image, for example, an additional image associated with a specific subject included in the captured captured image is captured according to the position of the specific subject. An image composition method for generating a composite image by arranging the image on the top is known (for example, see Patent Document 1). The synthesized image synthesized by such an image synthesizing method is displayed on a display screen, for example.

特開2010―187052号公報JP 2010-187052 A

上記従来の画像合成方法は、特定の被写体の位置に応じて撮影画像上の位置に付加画像を配置するので、例えば特定の被写体を撮影して表示された付加画像としての仮想画像が表示画面より大きい場合には、仮想画像の画面から外れて表示されていない部位を画面に表示すべく撮影の方向を変更すると、特定の被写体が画面から外れてしまうことにより、画像を合成することができないという課題がある。   In the conventional image composition method, the additional image is arranged at a position on the captured image in accordance with the position of the specific subject. Therefore, for example, a virtual image as an additional image displayed by photographing the specific subject is displayed on the display screen. If it is large, if the direction of imaging is changed to display on the screen the part that is not displayed off the screen of the virtual image, the specific subject will be off the screen and the image cannot be synthesized. There are challenges.

本発明は、かかる課題に鑑みてなされたものであり、その目的とするところは、仮想画像が対応づけられた特定の被写体が含まれない撮影範囲であっても、特定の被写体にて対応づけられた、実画像上の位置に仮想画像を合成することが可能な画像合成方法を提供することにある。   The present invention has been made in view of such a problem, and the object of the present invention is to associate a specific subject with a shooting range that does not include the specific subject with which the virtual image is associated. Another object of the present invention is to provide an image synthesis method capable of synthesizing a virtual image at a position on a real image.

かかる目的を達成するために本発明の画像合成方法は、
被写体を撮影した実画像と予め生成されている仮想画像とを合成する画像合成方法であって、
前記被写体に、自身の位置を示す位置情報を有し前記仮想画像が対応づけられた位置情報被写体と、撮影された実画像から識別可能であって前記仮想画像が対応づけられていない識別被写体とを貼付する工程と、
前記位置情報被写体と、前記識別被写体と、を含む前記被写体を撮影し、撮影された前記実画像を構成する画像データを記憶する実画像記憶工程と、
前記画像データに基づいて、前記位置情報被写体に対する前記識別被写体の情報識別間相対位置を算出し、算出した前記情報識別間相対位置と前記仮想画像とを前記識別被写体に対応づけた識別被写体情報を、記憶する識別被写体情報記憶工程と、
前記位置情報被写体を含まず前記識別被写体を含む前記被写体を撮影した際に、前記識別被写体情報に基づいて前記実画像と前記仮想画像とを合成する画像合成工程と、
を有することを特徴とする画像合成方法である。
In order to achieve this object, the image composition method of the present invention includes:
An image synthesis method for synthesizing a real image obtained by photographing a subject and a virtual image generated in advance,
A position information subject having position information indicating its own position and associated with the virtual image, and an identified subject that is identifiable from the captured real image and not associated with the virtual image ; A process of attaching,
A real image storage step of photographing the subject including the position information subject and the identification subject, and storing image data constituting the photographed real image;
Based on the image data, a relative position between information identifications of the identification subject with respect to the position information subject is calculated, and identification subject information in which the calculated information identification relative position and the virtual image are associated with the identification subject is obtained. An identification subject information storing step for storing,
An image synthesis step of synthesizing the real image and the virtual image based on the identified subject information when the subject including the identified subject is captured without including the position information subject;
An image composition method characterized by comprising:

このような画像合成方法によれば、被写体に設けられ自身の位置を示す位置情報を有する情報被写体と識別被写体とを含む被写体を撮影した画像データに基づいて算出した情報識別間相対位置と識別被写体とが対応づけられて記憶されているので、位置情報被写体を含まず識別被写体を含む被写体を撮影した場合であっても、画像上における識別被写体の位置から、位置情報被写体の位置を特定することが可能である。このため、識別被写体の正確な位置を特定できるので、予め生成されている仮想画像を、実画像の正確な位置に配置した合成画像を生成することが可能である。このため、情報被写体を含まず識別被写体を含む被写体を撮影した場合であっても、仮想画像と実画像とを適切な位置に配置して合成することが可能である。   According to such an image composition method, the relative position between the identification information and the identification subject calculated based on the image data obtained by photographing the subject including the information subject having the positional information indicating the position of the subject provided on the subject and the identification subject. Are stored in association with each other, so that the position of the position information subject can be identified from the position of the identified subject on the image even when the subject including the identified subject is captured without including the position information subject. Is possible. For this reason, since the exact position of the identified subject can be specified, it is possible to generate a composite image in which a virtual image generated in advance is arranged at an accurate position of the actual image. For this reason, even when the subject including the identification subject is captured without including the information subject, the virtual image and the real image can be arranged and combined at an appropriate position.

かかる画像合成方法であって、新たに撮影した実画像の画像データに、前記識別被写体と、前記識別被写体と異なる他の識別被写体とが含まれていた場合に、前記新たに撮影した前記実画像の画像データに基づいて、前記識別被写体と前記他の識別被写体との識別同士間相対位置を算出し、算出した前記識別同士間相対位置と前記他の識別被写体とを対応づけた新たな識別被写体情報を記憶することが望ましい。   In this image composition method, when the image data of a newly captured actual image includes the identified subject and another identified subject different from the identified subject, the newly captured actual image Based on the image data, a relative position between the identified subject and the other identified subject is calculated, and a new identified subject in which the calculated relative position between the identified subject and the other identified subject is associated with each other. It is desirable to store information.

このような画像合成方法によれば、識別被写体と他の識別被写体との識別同士間相対位置を算出し、算出した識別同士間相対位置と他の識別被写体を対応づけて記憶するので、記憶された識別同士間相対位置と情報識別間相対位置とに基づいて、他の識別被写体と情報被写体との相対位置を算出することが可能である。このため、他の識別被写体の正確な位置を特定できるので、予め生成されている仮想画像を、実画像の正確な位置に配置した合成画像を生成することが可能である。このため、撮影範囲に他の識別被写体しか含まれていない場合であっても、仮想画像と実画像とを適切な位置に配置して合成することが可能である。   According to such an image composition method, the relative position between the identification subject and the other identification subject is calculated, and the calculated relative position between the identification subject and the other identification subject are stored in association with each other. It is possible to calculate the relative position between another identification subject and the information subject based on the relative position between the identifications and the relative position between the information identifications. For this reason, since the exact position of another identification subject can be specified, it is possible to generate a composite image in which a virtual image generated in advance is arranged at an accurate position of the actual image. For this reason, even when only another identification subject is included in the shooting range, the virtual image and the real image can be arranged and combined at an appropriate position.

かかる画像合成方法であって、新たに撮影した実画像の画像データに、前記識別被写体と、前記識別被写体と異なる他の識別被写体とが含まれていた場合に、前記新たに撮影した前記実画像の画像データに基づいて、前記識別被写体と前記他の識別被写体との識別同士間相対位置を算出し、算出した前記識別同士間相対位置と前記情報識別間相対位置とに基づいて、前記位置情報被写体と前記他の識別被写体との新たな情報識別間相対位置を算出し、算出した前記新たな情報識別間相対位置と前記他の識別被写体とを対応づけた新たな識別被写体情報を記憶することが望ましい。   In this image composition method, when the image data of a newly captured actual image includes the identified subject and another identified subject different from the identified subject, the newly captured actual image Based on the image data, the relative position between the identification subject and the other identification subject is calculated, and based on the calculated relative position between the identification and the relative position between the information identification, the position information A new information identification relative position between the subject and the other identification subject is calculated, and new identification subject information in which the calculated new information identification relative position is associated with the other identification subject is stored. Is desirable.

このような画像合成方法によれば、識別被写体と他の識別被写体との識別同士間相対位置を算出し、算出した識別同士間相対位置と情報識別間相対位置とに基づいて、位置情報被写体と他の識別被写体との新たな情報識別間相対位置を算出し、算出した新たな情報識別間相対位置と他の識別被写体とを対応づけて記憶するので、位置情報被写体に対する他の識別被写体の相対位置を特定することが可能である。このため、撮影範囲に他の識別被写体しか含まれていない場合であっても、記憶されている新たな情報識別間相対位置に基づいて仮想画像と実画像とを適切な位置に配置して合成することが可能である。   According to such an image composition method, the relative position between the identification subject and another identification subject is calculated, and based on the calculated relative position between the identification and the relative position between the information identification, Since a new relative position between information identifications with other identification subjects is calculated and the calculated new relative position between information identifications and the other identification subjects are stored in association with each other, the relative position of the other identification subjects with respect to the positional information subject It is possible to specify the position. For this reason, even when only other identification subjects are included in the shooting range, the virtual image and the real image are arranged at an appropriate position based on the new stored relative position between information identification and synthesized. Is possible.

かかる画像合成方法であって、新たに撮影した実画像の画像データに、前記識別被写体情報が既に記憶されている前記識別被写体が含まれている場合には、記憶されている前記識別被写体情報に基づいて前記実画像と前記仮想画像とを合成することが望ましい。   In this image composition method, when the identified subject for which the identified subject information is already stored is included in the image data of a newly captured real image, the stored identified subject information is included in the stored identified subject information. It is desirable to synthesize the real image and the virtual image based on this.

このような画像合成方法によれば、新たに撮影した実画像の画像データに含まれていた識別被写体の識別被写体情報が既に記憶されている場合には、記憶されている識別被写体情報に基づいて、仮想画像と実画像とを適切な位置に配置して容易に合成することが可能である。   According to such an image composition method, when the identification subject information of the identification subject included in the image data of the newly photographed real image is already stored, it is based on the stored identification subject information. The virtual image and the real image can be easily combined by arranging them at appropriate positions.

本発明によれば、仮想画像が対応づけられた特定の被写体が含まれない撮影範囲であっても、特定の被写体にて対応づけられた、実画像上の位置に仮想画像が合成された合成画像を生成することが可能である。   According to the present invention, even in a shooting range that does not include a specific subject to which a virtual image is associated, a composition in which a virtual image is synthesized at a position on a real image that is associated with a specific subject. An image can be generated.

本発明に係る画像合成方法を実現するための装置の一例を示すブロック図である。It is a block diagram which shows an example of the apparatus for implement | achieving the image composition method which concerns on this invention. 本実施形態にて撮影される被写体と撮影範囲のイメージを示す図である。It is a figure which shows the to-be-photographed object and image of the imaging | photography range in this embodiment. 本実施形態にて実画像と仮想画像の全体とが合成された合成画像のイメージを示す図である。It is a figure which shows the image of the synthesized image by which the real image and the whole virtual image were synthesize | combined in this embodiment. 本実施形態の画像合成方法を説明するためのフローチャートである。図5は、実施形態において撮影されたAマーカーを含む実画像と表示部に表示される画像とを対応づけて説明するためのイメージ図である。It is a flowchart for demonstrating the image composition method of this embodiment. FIG. 5 is an image diagram for explaining the actual image including the A marker photographed in the embodiment and the image displayed on the display unit in association with each other. 実施形態において撮影されたAマーカーを含む実画像と表示部に表示される画像とを対応づけて説明するためのイメージ図である。It is an image figure for demonstrating matching the real image containing A marker image | photographed in embodiment, and the image displayed on a display part. 実施形態において撮影されたAマーカーを含まない実画像と表示部に表示される画像とを対応づけて説明するためのイメージ図である。It is an image figure for matching and explaining the actual image which does not contain the A marker imaged in the embodiment, and the image displayed on the display unit.

以下、本発明の一実施形態について図面を用いて詳細に説明する。
図1は、本発明に係る画像合成方法を実現するための装置の一例を示すブロック図である。
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing an example of an apparatus for realizing an image composition method according to the present invention.

本実施形態の画像合成方法は、たとえば、被写体を撮影した実画像に、撮影された被写体に含まれる情報被写体の情報に基づいて予め形成されている仮想画像を重ね合わせた合成画像を表示する際に、仮想画像が対応づけられた情報被写体が、撮影範囲から外れても、情報被写体にて対応づけられた、実画像上の位置に仮想画像を合成することを可能とする画像合成方法である。   The image composition method of the present embodiment is, for example, when displaying a composite image in which a virtual image formed in advance based on information on an information subject included in a photographed subject is superimposed on a real image obtained by photographing the subject. In addition, even if the information subject associated with the virtual image is out of the shooting range, the image composition method can synthesize the virtual image at a position on the real image associated with the information subject. .

図2は、本実施形態にて撮影される被写体と撮影範囲のイメージを示す図である。図3は、本実施形態にて実画像と仮想画像の全体とが合成された合成画像のイメージを示す図である。   FIG. 2 is a diagram illustrating an image of a subject and a shooting range shot in the present embodiment. FIG. 3 is a diagram illustrating an image of a combined image obtained by combining the real image and the entire virtual image in the present embodiment.

本実施形態では、図2に示すように、室内の壁3に、例えば、QRコード(登録商標)やバーコードなどの情報を示す情報被写体としてのマーカー21が設けられており、このマーカー21とともに室内を撮影した際に、マーカー21に対応づけられた仮想画像としての例えばシステムキッチンの仮想画像23と、マーカー21の位置情報Pとに基づいて、撮影した実画像20とマーカー21に対応づけられたシステムキッチンの仮想画像23とを合成する例について説明する。   In the present embodiment, as shown in FIG. 2, a marker 21 as an information subject indicating information such as a QR code (registered trademark) or a barcode is provided on the indoor wall 3. When a room is photographed, the photographed actual image 20 and the marker 21 are associated with each other based on, for example, the virtual image 23 of the system kitchen as a virtual image associated with the marker 21 and the position information P of the marker 21. An example of combining the virtual image 23 of the system kitchen will be described.

また、本実施形態においては、2種類のマーカー21を用いている。2種類のマーカー21のうちの一方のマーカー21は、撮影した実画像20を解析してマーカー21であることを識別可能であり、仮想画像23が対応づけられた情報被写体としての情報マーカー21aであり、他方のマーカー21は、情報を有していないが撮影した実画像20を解析してマーカー21であることを識別可能な識別被写体としての識別マーカー21bである。また、情報マーカー21a及び識別マーカー21bは、説明の便宜上、図面では情報マーカー21aを「A」にて示し、以下、Aマーカー21aとする。また、識別マーカー21bは同一のマーカー21bを2つ使用するが、説明にてこれらを区別するために、一方の識別マーカー21bを「B」にて示し、以下、Bマーカー21bとし、他方の識別マーカー21bを「C」にて示し、以下、Cマーカー21bとして示す。   In the present embodiment, two types of markers 21 are used. One of the two types of markers 21 can be identified as the marker 21 by analyzing the captured real image 20, and is an information marker 21a as an information subject associated with the virtual image 23. The other marker 21 is an identification marker 21b as an identification subject that has no information but can identify the marker 21 by analyzing the captured real image 20. Further, for convenience of explanation, the information marker 21a and the identification marker 21b are indicated by “A” in the drawings, and are hereinafter referred to as A marker 21a. In addition, although two identical markers 21b are used as the identification marker 21b, in order to distinguish these in the description, one identification marker 21b is indicated by “B”, hereinafter referred to as B marker 21b, and the other identification The marker 21b is indicated by “C”, and is hereinafter referred to as C marker 21b.

情報マーカー21aは、当該情報マーカー21aが設けられている位置と、仮想画像23の所定の位置とが対応づけた相対位置を示す位置情報Pを有しており、情報マーカー21aを含む被写体が撮影されると、情報マーカー21aに対応づけられた仮想画像23が、位置情報Pに基づいて、マーカー21aが設けられている位置に位置あわせされて実画像20と合成される。例えば、Aマーカー21aには、システムキッチンの仮想画像23が対応づけられており、Aマーカー21aに対応づけられているシステムキッチンの仮想画像23の所定の位置が、当該Aマーカー21aが設けられている位置に位置あわせされると、図3に示すように、システムキッチンの仮想画像23が実画像20の室内の適切な位置に配置されるような位置にAマーカー21aが設けられている。このため、Aマーカー21aは、例えばGPS等を用いて正確に実測して配置され、配置されている自身の、地球上における絶対位置を示す位置情報を有している。   The information marker 21a has position information P indicating a relative position in which a position where the information marker 21a is provided and a predetermined position of the virtual image 23 are associated with each other, and a subject including the information marker 21a is photographed. Then, the virtual image 23 associated with the information marker 21a is aligned with the position where the marker 21a is provided based on the position information P, and is combined with the actual image 20. For example, a virtual image 23 of the system kitchen is associated with the A marker 21a, and a predetermined position of the virtual image 23 of the system kitchen associated with the A marker 21a is provided with the A marker 21a. As shown in FIG. 3, the A marker 21 a is provided at a position where the virtual image 23 of the system kitchen is arranged at an appropriate position in the room of the real image 20 as shown in FIG. 3. For this reason, the A marker 21a is accurately measured by using, for example, GPS, and has position information indicating the absolute position of the arranged A on the earth.

ところで、室内は広さが限られるため、図3に示すように、システムキッチンの仮想画像23の全体が、撮影範囲、具体的には、カメラのファインダー内などに含まれるとは限らない。このため、Aマーカー21aを含むように撮影範囲を定めると、システムキッチンの仮想画像23のうちの撮影範囲外に位置している部位は、見ることができず、撮影範囲外に位置している部位を見るために、撮影範囲を移動するとAマーカー21aが撮影範囲から外れてしまい、撮影範囲にシステムキッチンの仮想画像23が現れず、システムキッチンの仮想画像23の見たい部位を見ることができない場合がある。   By the way, since the size of the room is limited, as shown in FIG. 3, the entire virtual image 23 of the system kitchen is not necessarily included in the shooting range, specifically, the finder of the camera. For this reason, when the imaging range is determined so as to include the A marker 21a, the part located outside the imaging range in the virtual image 23 of the system kitchen cannot be seen and is located outside the imaging range. When the imaging range is moved to view the part, the A marker 21a is out of the imaging range, the virtual image 23 of the system kitchen does not appear in the imaging range, and the desired part of the virtual image 23 of the system kitchen cannot be seen. There is a case.

本発明は、撮影範囲内にAマーカー21aが存在しない場合であっても、適切な位置に配置されているように見えるシステムキッチンの仮想画像23の見たい部位を見ることを可能とする画像合成方法である。   The present invention is an image composition that makes it possible to see a desired portion of the virtual image 23 of the system kitchen that appears to be arranged at an appropriate position even when the A marker 21a does not exist within the imaging range. Is the method.

このような画像合成方法を実現するための画像合成装置1は、被写体を撮影する撮像部10と、撮影した被写体の実画像と予め形成されている仮想画像とを合成する処理を含み画像合成装置を制御する制御部12と、画像を合成するために必要な各種情報やデータが記憶される記憶部14と、合成された合成画像を表示する表示部16と、本画像合成装置1を操作するための操作部18と、を有している。本実施形態の画像合成装置1は、例えば、撮像部10と、撮影した画像を表示する表示部16とを有し持ち運び可能な、例えばデジタルカメラ、デジタルビデオカメラ、携帯電話、携帯情報端末(PDA)、モバイルコンピュータなどに、画像合成処理が実行可能なプログラムが記憶されている。   An image composition apparatus 1 for realizing such an image composition method includes an image capturing unit 10 that captures a subject, and a process that combines a real image of the captured subject and a virtual image that is formed in advance. The control unit 12 for controlling the image, the storage unit 14 for storing various information and data necessary for synthesizing the image, the display unit 16 for displaying the synthesized image, and the image synthesizing apparatus 1 And an operation unit 18 for this purpose. The image composition device 1 of the present embodiment has, for example, an imaging unit 10 and a display unit 16 that displays a captured image, and is portable, for example, a digital camera, a digital video camera, a mobile phone, a personal digital assistant (PDA). ), A program capable of executing image composition processing is stored in a mobile computer or the like.

そして、画像合成装置1の使用者が、被写体を撮影すると、表示部16に撮影された実画像が表示される。このとき、撮影された実画像20に、予め設定された、例えば、QRコード(登録商標)やバーコードなどの、所定の合成情報を示す情報被写体としてのAマーカー21aや画像データから識別可能な識別被写体としてのBマーカー21b及びCマーカー21bが含まれていた場合には、当該マーカー21を検出して情報を取得し、取得した情報に基づいて、撮影した実画像20と予め記憶されている仮想画像23とを合成した合成画像24を生成し合成画像24が表示部16に表示されるように構成されている。   Then, when the user of the image composition device 1 photographs the subject, the captured actual image is displayed on the display unit 16. At this time, the photographed real image 20 can be identified from an A marker 21a as an information subject indicating predetermined composite information, such as a QR code (registered trademark) or a barcode, or image data set in advance. When the B marker 21b and the C marker 21b as identification subjects are included, the marker 21 is detected to acquire information, and the captured real image 20 is stored in advance based on the acquired information. A composite image 24 obtained by combining the virtual image 23 is generated, and the composite image 24 is displayed on the display unit 16.

撮像部10は、例えば、デジタルカメラやデジタルビデオカメラのような、撮影により、画像を構成する複数の画素の各画像データを生成するCCDセンサーなどの撮像素子により、光情報を電気情報に変換し、変換した画像データに基づいて表示部16に画像を表示するように構成されている。   The imaging unit 10 converts optical information into electrical information by an imaging element such as a CCD sensor that generates image data of a plurality of pixels constituting an image by photographing, such as a digital camera or a digital video camera. The display unit 16 is configured to display an image based on the converted image data.

表示部16は、画像を構成する複数の画素の画像データを、各素子に対応させて表示することが可能な、例えば液晶パネルなどにて構成されている。ここで、各画素の画像データとは、例えば、各画素をR(レッド)成分、G(グリーン)成分、B(ブルー)成分に分解した各成分を示すデータである。   The display unit 16 is configured by, for example, a liquid crystal panel that can display image data of a plurality of pixels constituting an image corresponding to each element. Here, the image data of each pixel is, for example, data indicating each component obtained by decomposing each pixel into an R (red) component, a G (green) component, and a B (blue) component.

操作部18は、画像合成装置1を使用する使用者が、画像合成装置1に対し撮影等の操作を行ったり、設定を変更するなどの操作を行う部位であり、少なくとも実画像20を撮影するための所謂シャッターを有している。   The operation unit 18 is a part where a user who uses the image composition device 1 performs an operation such as photographing or changing settings on the image composition device 1, and photographs at least the actual image 20. So-called shutters are provided.

記憶部14は、本画像合成装置1にて合成画像を生成するための各種情報が記憶されており、また、情報が記憶される情報記憶領域14aと、合成画像を生成する処理の中で画像データが書き換えられていく作業領域となる画像仮想展開領域14bとを有している。   The storage unit 14 stores various types of information for generating a composite image in the image composition apparatus 1, and also stores an information storage area 14a in which information is stored and an image in the process of generating the composite image. It has an image virtual development area 14b which is a work area in which data is rewritten.

情報記憶領域14aには、被写体に含まれているAマーカー21aに対応づけられた仮想画像23を特定する情報、仮想画像23の実画像20に対して配置すべき位置を、Aマーカー21aが設けられている位置および本画像合成装置1の撮影時の視点位置との相対位置にて示す位置情報Pなどが記憶されている。また、情報記憶領域14aには、撮影された実画像20に含まれたBマーカー21b、Cマーカー21b等の識別マーカーと仮想画像23と対応づけて合成画像を生成するための情報が記憶される記憶領域が含まれている。   In the information storage area 14a, the A marker 21a is provided with information for specifying the virtual image 23 associated with the A marker 21a included in the subject and the position of the virtual image 23 to be arranged with respect to the actual image 20. The position information P indicated by the relative position with respect to the current position and the viewpoint position when the image synthesizing apparatus 1 is photographed is stored. The information storage area 14a stores information for generating a composite image in association with the virtual image 23 and identification markers such as the B marker 21b and the C marker 21b included in the photographed real image 20. A storage area is included.

画像仮想展開領域14bは、撮影された画像データが画素毎に記憶される記憶領域である。上述したように、各画素の画像データはR,G,Bの3つの成分を示すデータを有するので、画像仮想展開領域14bは、合成画像を構成する画素数の3倍の記憶領域を有している。   The image virtual development area 14b is a storage area in which photographed image data is stored for each pixel. As described above, since the image data of each pixel has data indicating three components of R, G, and B, the image virtual development area 14b has a storage area that is three times the number of pixels constituting the composite image. ing.

画像仮想展開領域14bに記憶される画像データは、合成画像を生成する際には必要に応じて対応する画素の画像データが書き換えられる。そして、画像仮想展開領域14bに画素毎に記憶された3つのデータは、各画素の画像データが書き換えられる場合には、R成分、G成分、B成分の各データがそれぞれ書き換えられる。このとき、画像仮想展開領域14bは、記憶領域が表示部16または撮像部10の素子と同様に配列されている必要はなく、各記憶領域の画像データが、表示部16または撮像部10の素子と対応づけられて記憶されていればよい。   The image data stored in the image virtual development area 14b is rewritten with the corresponding pixel image data as necessary when generating a composite image. The three data stored for each pixel in the image virtual development area 14b are rewritten respectively for the R component, the G component, and the B component when the image data of each pixel is rewritten. At this time, in the image virtual development area 14b, the storage area does not need to be arranged in the same manner as the elements of the display unit 16 or the imaging unit 10, and the image data of each storage area is the element of the display unit 16 or the imaging unit 10. As long as they are stored in association with each other.

制御部12は、使用者により操作部18が操作されることにより、撮像部10や表示部16を制御したり、撮影された実画像20の画像データからマーカー21を抽出し、マーカー21にて示される情報を解析する解析処理、解析された情報に基づいて、実画像20と記憶部14に記憶されている仮想画像23とを合成する画像合成処理等の各種処理を実行する。   The control unit 12 controls the imaging unit 10 and the display unit 16 by operating the operation unit 18 by the user, or extracts the marker 21 from the image data of the captured real image 20. Various processes such as an analysis process for analyzing the displayed information and an image synthesis process for synthesizing the actual image 20 and the virtual image 23 stored in the storage unit 14 are executed based on the analyzed information.

次に、制御部12による画像合成方法について説明する。   Next, an image composition method by the control unit 12 will be described.

本実施形態の画像合成方法は、画像合成装置1に設けられ、撮像部10にて撮影するための操作部18であるシャッターが操作されて処理が開始される。このとき、画像合成装置1が、デジタルカメラなどのように、単に実画像を撮影するときと、合成画像を生成するときとで処理を切り替えるスイッチが操作部18に設けられていてもよい。また、常に合成画像を生成する処理が実行されるように設定されており、撮影された実画像にマーカー21が検出されたときのみ合成画像を生成する処理を実行することとしてもよい。   The image composition method according to the present embodiment is provided in the image composition apparatus 1, and a process is started by operating a shutter which is an operation unit 18 for photographing with the imaging unit 10. At this time, the operation unit 18 may be provided with a switch for switching processing between when the image composition device 1 simply captures a real image and when a composite image is generated, such as a digital camera. Further, it is set to always execute the process of generating the composite image, and the process of generating the composite image may be executed only when the marker 21 is detected in the captured real image.

図4は、本実施形態の画像合成方法を説明するためのフローチャートであり、図5は、実施形態において撮影されたAマーカーを含む実画像と表示部に表示される画像とを対応づけて説明するためのイメージ図である。図6は、実施形態において撮影されたAマーカーを含まない実画像と表示部に表示される画像とを対応づけて説明するためのイメージ図である。   FIG. 4 is a flowchart for explaining the image composition method of the present embodiment, and FIG. 5 explains the real image including the A marker photographed in the embodiment in association with the image displayed on the display unit. It is an image figure for doing. FIG. 6 is an image diagram for explaining a real image that does not include the A marker photographed in the embodiment and an image displayed on the display unit in association with each other.

制御部12は、シャッターが操作されると撮像部10にて被写体を撮影し、撮影された実画像20を構成する各画素の画像データを生成し(S1)、生成した画像データを記憶部14の画像仮想展開領域14bに記憶する(実画像記憶工程S2)。ここでは、図2及び図5(a)に示すような撮影範囲F1にて撮影されたとする。また、このとき、制御部12は実画像の撮影時に撮像部10から取得した情報に基づき、一般的なカメラにも搭載されているオートフォーカス機構の原理を利用して、例えば、レンズの上半分と下半分にて生じる重心位置の違いを利用して被写体と、撮像部10の視点位置との距離を計測し、計測した距離情報を記憶部14に記憶する。   When the shutter is operated, the control unit 12 captures a subject with the imaging unit 10, generates image data of each pixel constituting the captured actual image 20 (S1), and stores the generated image data in the storage unit 14. Is stored in the virtual image development area 14b (actual image storage step S2). Here, it is assumed that the image is captured in the imaging range F1 as shown in FIG. 2 and FIG. At this time, the control unit 12 uses, for example, the upper half of the lens based on the information acquired from the imaging unit 10 at the time of capturing a real image, using the principle of an autofocus mechanism mounted on a general camera. The distance between the subject and the viewpoint position of the imaging unit 10 is measured using the difference between the center of gravity positions generated in the lower half and the measured distance information is stored in the storage unit 14.

次に制御部12は、実画像20の画像データに情報被写体としてのAマーカー21aが撮影されているか否かを解析する(S3)。このとき、実画像20の画像データにAマーカー21aが撮影されていた場合には(S4)、Aマーカー21aに対応づけられている情報を記憶部14から取得する(S5)。このとき、撮影した実画像20と合成する仮想画像23の情報と仮想画像23を合成するための位置情報P、すなわち、Aマーカー21aの位置に位置あわせされる仮想画像上の位置を示す情報とを取得する(S5)。実画像20の画像データにAマーカー21aが撮影されていなかった場合の処理については後述する。   Next, the control unit 12 analyzes whether or not the A marker 21a as the information subject is captured in the image data of the actual image 20 (S3). At this time, when the A marker 21a is captured in the image data of the real image 20 (S4), information associated with the A marker 21a is acquired from the storage unit 14 (S5). At this time, information on the virtual image 23 to be combined with the captured real image 20 and position information P for combining the virtual image 23, that is, information indicating a position on the virtual image aligned with the position of the A marker 21a Is acquired (S5). Processing when the A marker 21a is not photographed in the image data of the actual image 20 will be described later.

次に制御部12は、取得した情報に基づいて、画像仮想展開領域14bに記憶されている実画像20の対象となる画素の画像データを、情報マーカー21に対応付けられ情報記憶領域14aに記憶されている仮想画像23の画像データに書き換えて合成画像24を生成する(S6)。   Next, based on the acquired information, the control unit 12 stores the image data of the target pixel of the real image 20 stored in the image virtual development area 14b in the information storage area 14a in association with the information marker 21. The synthesized image 24 is generated by rewriting the image data of the virtual image 23 (S6).

次に制御部12は、撮影した実画像20に識別マーカー21が含まれているか否かを解析する(S9)。このとき、識別マーカー21が含まれていない場合には、画像仮想展開領域14bに記憶されている、図5(b)に示すような合成画像24を表示部16に表示して(S13)、処理を終了する。本実施形態の場合には、Bマーカー21bが含まれていることが検出される。   Next, the control unit 12 analyzes whether or not the identification marker 21 is included in the photographed real image 20 (S9). At this time, if the identification marker 21 is not included, the composite image 24 as shown in FIG. 5B stored in the image virtual development area 14b is displayed on the display unit 16 (S13). The process ends. In the present embodiment, it is detected that the B marker 21b is included.

そして、Bマーカー21bのような識別マーカー21bが含まれていた場合には、検出した識別マーカー21が既に情報記憶領域14aに記憶されているか否かを判定する(S10)。このとき、検出した識別マーカー21bの情報が記憶されている場合には、その他に識別マーカー21bが含まれているか否かが判定され、含まれていない場合には、画像仮想展開領域14bに記憶されている、図5(b)に示すような合成画像24を表示部16に表示して(S13)、処理を終了する。   If the identification marker 21b such as the B marker 21b is included, it is determined whether or not the detected identification marker 21 is already stored in the information storage area 14a (S10). At this time, if the information of the detected identification marker 21b is stored, it is determined whether or not the other identification marker 21b is included. If not, the information is stored in the image virtual development area 14b. The composite image 24 as shown in FIG. 5B is displayed on the display unit 16 (S13), and the process ends.

一方、検出した識別マーカー21の情報が記憶されていない場合には、撮影時に計測した、被写体と撮像部10の視点位置との距離を示す距離情報及び合成画像上における、情報マーカー21aと識別マーカー21bの位置から、現実の情報マーカー21aに対する識別マーカー21bの相対位置(情報識別間相対位置Q)を算出する(S11)。そして、算出した相対位置(情報識別間相対位置Q)を示す情報とシステムキッチンの仮想画像23とを対応づけた識別被写体情報Tを情報記憶領域14aに記憶する(識別被写体情報記憶工程S12)。その後、実画像20に、その他に識別マーカー21が含まれているか否かが判定され(S9)、含まれていない場合には、画像仮想展開領域14bに記憶されている、図5(b)に示すような合成画像24を表示部16に表示して(S13)、処理を終了する。また、実画像20に、その他に識別マーカー21が含まれていた場合には、含まれていた識別マーカー21bに対応づけられた識別被写体情報Tの情報記憶領域14aにおける有無を判定し(S10)、記憶されていない場合には、相対位置(情報識別間相対位置Q)を算出し(S11)、算出した相対位置(情報識別間相対位置Q)の情報と仮想画像23とを対応づけた識別被写体情報Tを情報記憶領域14aに記憶する処理(識別被写体情報記憶工程S12)を繰り返す。   On the other hand, when the information of the detected identification marker 21 is not stored, the distance information indicating the distance between the subject and the viewpoint position of the imaging unit 10 measured at the time of shooting and the information marker 21a and the identification marker on the composite image From the position of 21b, the relative position (relative position Q between information identifications) of the identification marker 21b with respect to the actual information marker 21a is calculated (S11). And the identification subject information T which matched the information which shows the calculated relative position (relative position Q between information identification) and the virtual image 23 of a system kitchen is memorize | stored in the information storage area 14a (identification subject information storage process S12). Thereafter, it is determined whether or not the identification marker 21 is included in the actual image 20 (S9). If not included, the image is stored in the image virtual development area 14b. FIG. Is displayed on the display unit 16 (S13), and the process is terminated. If the actual image 20 includes an identification marker 21 in addition, the presence / absence of the identification subject information T associated with the included identification marker 21b in the information storage area 14a is determined (S10). If not stored, the relative position (relative position Q between information identification) is calculated (S11), and the information of the calculated relative position (relative position Q between information identification) and the virtual image 23 are associated with each other. The process of storing the subject information T in the information storage area 14a (identified subject information storage step S12) is repeated.

本実施形態の場合には、撮影した実画像20を解析してBマーカー21bが含まれていることが検出されたのち、Bマーカー21bに対応づけられた識別被写体情報Tが情報記憶領域14aに記憶されていないと判定され(S10)、撮影時に計測した距離情報及び合成画像24上における、Aマーカー21aとBマーカー21bとの位置から、現実のAマーカー21aに対するBマーカー21bの相対位置(情報識別間相対位置Q)を算出し(S11)、算出した相対位置(情報識別間相対位置Q)を示す情報とシステムキッチンの仮想画像23とを対応づけた識別被写体情報Tを情報記憶領域14aに記憶する(識別被写体情報記憶工程S12)。そして、撮影範囲(図2、F1)には、他に識別マーカー21は含まれていないので(S9)、画像仮想展開領域14bに記憶されている、図5(b)に示すような合成画像24を表示部16に表示して(S13)、処理を終了する。   In the case of the present embodiment, after analyzing the photographed real image 20 and detecting that the B marker 21b is included, the identification subject information T associated with the B marker 21b is stored in the information storage area 14a. It is determined not to be stored (S10), and the relative position (information) of the B marker 21b with respect to the actual A marker 21a is determined from the distance information measured at the time of shooting and the positions of the A marker 21a and B marker 21b on the composite image 24. (Relative inter-identification position Q) is calculated (S11), and identification subject information T in which information indicating the calculated relative position (inter-identification relative position Q) is associated with the virtual image 23 of the system kitchen is stored in the information storage area 14a. Store (identified subject information storage step S12). Since no other identification marker 21 is included in the shooting range (FIG. 2, F1) (S9), the composite image shown in FIG. 5B is stored in the image virtual development area 14b. 24 is displayed on the display unit 16 (S13), and the process ends.

次に、画像合成装置1の向きが変更され、図2及び図6(a)に示すような撮影範囲F2にて新たに撮影され、撮影された実画像20を構成する各画素の画像データが生成され(S1)、生成された画像データを記憶部14の画像仮想展開領域14bに記憶する(実画像記憶工程、S2)。また、この場合にも、被写体と撮像部10の視点位置との距離を計測し、計測した距離情報を情報記憶領域14aに記憶する。   Next, the orientation of the image composition device 1 is changed, and image data of each pixel constituting the photographed actual image 20 is newly photographed in the photographing range F2 as shown in FIG. 2 and FIG. It is generated (S1), and the generated image data is stored in the image virtual development area 14b of the storage unit 14 (actual image storage step, S2). Also in this case, the distance between the subject and the viewpoint position of the imaging unit 10 is measured, and the measured distance information is stored in the information storage area 14a.

次に制御部12は、実画像20の画像データに情報被写体としてのAマーカー21aが撮影されているか否かを解析する(S3)。このとき、実画像20の画像データにはAマーカー21aが含まれていない。   Next, the control unit 12 analyzes whether or not the A marker 21a as the information subject is captured in the image data of the actual image 20 (S3). At this time, the image data of the actual image 20 does not include the A marker 21a.

撮影した実画像20にAマーカー21aが含まれていない場合には(S4)、撮影した実画像20に既に記憶されている識別マーカー21bが含まれているか否かを解析する(S7)。このとき、識別マーカー21が含まれていない場合には、画像仮想展開領域14bに記憶されている実画像20を表示部16に表示して(S13)処理を終了する。   If the photographed real image 20 does not include the A marker 21a (S4), it is analyzed whether or not the identification marker 21b already stored in the photographed real image 20 is included (S7). At this time, if the identification marker 21 is not included, the actual image 20 stored in the image virtual development area 14b is displayed on the display unit 16 (S13), and the process is terminated.

一方、識別マーカー21bに対応づけられた識別被写体情報Tが情報記憶領域14aに記憶されている場合には、記憶されている識別マーカー21bの相対位置を示す識別同士間相対位置Rに基づいて、現状の撮影範囲F2の実画像に合成されるべき仮想画像23の画像データを特定し、画像仮想展開領域14bに記憶されている画像データの対応する画素を特定した仮想画像23の画像データに書き換える(画像合成工程S8)。   On the other hand, when the identification subject information T associated with the identification marker 21b is stored in the information storage area 14a, the identification relative position R indicating the relative position of the identification marker 21b is stored. The image data of the virtual image 23 to be combined with the actual image in the current shooting range F2 is specified, and the corresponding pixel of the image data stored in the image virtual development area 14b is rewritten with the specified image data of the virtual image 23. (Image composition step S8).

その後、実画像20に、その他に識別マーカー21が含まれているか否かが判定され(S9)、含まれていない場合には、画像仮想展開領域14bに記憶されている合成画像24を表示部16に表示して(S13)、処理を終了する。   Thereafter, it is determined whether or not the identification marker 21 is included in the real image 20 (S9). If not included, the composite image 24 stored in the virtual image development area 14b is displayed on the display unit. 16 (S13), and the process ends.

実画像20に、その他に識別マーカー21が含まれていた場合には(S9)、含まれていた識別マーカー21bに対応づけられた識別被写体情報Tの情報記憶領域14aにおける有無を判定し(S10)、記憶されていない場合には、相対位置(識別同士間相対位置R)を算出し(S11)、算出した相対位置(識別同士間相対位置R)と仮想画像23とを対応づけた識別被写体情報Tを情報記憶領域14aに記憶する処理(識別被写体情報記憶工程 S12)を繰り返す。   If the actual image 20 includes other identification markers 21 (S9), the presence / absence of identification subject information T associated with the included identification markers 21b in the information storage area 14a is determined (S10). If not stored, a relative position (relative position R between identifications) is calculated (S11), and the identified subject in which the calculated relative position (relative position R between identifications) is associated with the virtual image 23 is calculated. The process of storing the information T in the information storage area 14a (identified subject information storage step S12) is repeated.

本実施形態の場合には、図2及び図6(a)に示すように、撮影範囲F2にはAマーカー21aが含まれていないので(S4)、実画像20に既に記憶されている識別マーカー21bが含まれているか否かが判定される(S7)。このとき、Bマーカー21bに対応づけられた識別被写体情報Tは、情報記憶領域14aに記憶されているので、Bマーカー21bの識別被写体情報T、すなわち、Bマーカー21bのAマーカー21aに対する相対位置を示す情報識別間相対位置Qに基づいて、現状の撮影範囲F2の実画像に合成されるべきシステムキッチンの仮想画像23の画像データを特定し、画像仮想展開領域14bに記憶されている画像データの対応する画素を特定した仮想画像23の画像データに書き換える(画像合成工程S8)。   In the present embodiment, as shown in FIGS. 2 and 6A, since the A marker 21a is not included in the imaging range F2 (S4), the identification marker already stored in the real image 20 It is determined whether or not 21b is included (S7). At this time, since the identification subject information T associated with the B marker 21b is stored in the information storage area 14a, the identification subject information T of the B marker 21b, that is, the relative position of the B marker 21b with respect to the A marker 21a is determined. Based on the relative position Q between the information identifications shown, the image data of the virtual image 23 of the system kitchen to be combined with the actual image in the current shooting range F2 is specified, and the image data stored in the image virtual development area 14b is identified. The corresponding pixel is rewritten to the image data of the specified virtual image 23 (image composition step S8).

その後、実画像20が解析されると、Cマーカー21bが検出されるので(S9)、検出されたCマーカー21bに対応づけられた識別被写体情報Tの情報記憶領域14aにおける有無を判定する(S10)。このとき、Cマーカー21bに対応づけられた識別被写体情報Tは記憶されていないので相対位置(識別同士間相対位置R)を算出し(S11)、算出した相対位置(識別同士間相対位置R)の情報と仮想画像23とを対応づけた識別被写体情報Tを記憶領域14aに記憶して(識別被写体情報記憶工程S12)、画像仮想展開領域14bに記憶されている、図6(b)に示すような合成画像24を表示部16に表示して(S13)、処理を終了する。   Thereafter, when the real image 20 is analyzed, the C marker 21b is detected (S9), and the presence / absence of the identification subject information T associated with the detected C marker 21b in the information storage area 14a is determined (S10). ). At this time, since the identification subject information T associated with the C marker 21b is not stored, the relative position (relative position R between identifications) is calculated (S11), and the calculated relative position (relative position R between identifications) is calculated. 6B is stored in the storage area 14a (identification subject information storage step S12) and stored in the image virtual development area 14b. Such a composite image 24 is displayed on the display unit 16 (S13), and the process ends.

本実施形態の画像合成方法によれば、被写体との相対位置を示す位置情報Pを有する情報マーカー21aと識別マーカー21bとを含む被写体を撮影した画像データに基づいて算出した情報識別間相対位置Qと仮想画像23とが記憶されているので、情報マーカー21aを含まず識別マーカー21bを含む被写体を撮影した場合であっても、画像上における識別マーカー21bの位置から、情報マーカー21aの位置を特定することが可能である。そして、生成する合成画像24にて実画像20と合成される仮想画像23は、情報マーカー21aが有する被写体との相対位置を示す位置情報Pに基づいて実画像20と合成されるので、情報マーカー21aの位置が特定されれば、仮想画像23と実画像20とを適切な位置にて合成することが可能である。このため、情報マーカー21aを含まず識別マーカー21bを含む被写体を撮影した場合であっても、仮想画像23と実画像20とを適切な位置に配置して合成することが可能である。そして、仮想画像23が対応づけられた情報マーカー21aが含まれない撮影範囲F2であっても、情報マーカー21aの位置情報Pに基づいて仮想画像23が位置決めされて合成された合成画像24における撮影範囲F2に対応する範囲の合成画像24を生成することが可能である。   According to the image composition method of the present embodiment, the relative position Q between information identifications calculated based on the image data obtained by photographing the subject including the information marker 21a having the positional information P indicating the relative position to the subject and the identification marker 21b. And the virtual image 23 are stored, the position of the information marker 21a is specified from the position of the identification marker 21b on the image even when a subject including the identification marker 21b is captured without including the information marker 21a. Is possible. The virtual image 23 combined with the real image 20 in the generated combined image 24 is combined with the real image 20 based on the position information P indicating the relative position with respect to the subject of the information marker 21a. If the position of 21a is specified, the virtual image 23 and the real image 20 can be combined at an appropriate position. Therefore, even when a subject that does not include the information marker 21a and includes the identification marker 21b is photographed, the virtual image 23 and the real image 20 can be arranged and combined at appropriate positions. Even in the shooting range F2 that does not include the information marker 21a associated with the virtual image 23, the shooting is performed in the combined image 24 in which the virtual image 23 is positioned and combined based on the position information P of the information marker 21a. It is possible to generate a composite image 24 in a range corresponding to the range F2.

また、識別マーカー21bと他の識別マーカー21bとの識別同士間相対位置Rを算出し、算出した識別同士間相対位置Rと仮想画像23とを対応づけて記憶するので、記憶された識別同士間相対位置Rと情報識別間相対位置Qとに基づいて、他の識別マーカー21bと情報マーカー21aとの相対位置を算出することが可能である。このため、識別同士間相対位置Rと仮想画像23とを対応づけた新たな識別被写体情報Tを記憶することにより、撮影範囲に他の識別マーカー21bしか含まれていない場合であっても、仮想画像23と実画像20とを適切な位置に配置して合成することが可能である。   Moreover, since the relative position R between the identifications of the identification marker 21b and the other identification marker 21b is calculated and the calculated relative position R between the identifications and the virtual image 23 are stored in association with each other, the stored identifications Based on the relative position R and the relative position Q between information identification, it is possible to calculate the relative position between the other identification marker 21b and the information marker 21a. Therefore, by storing new identification subject information T in which the relative position R between the identifications and the virtual image 23 are associated with each other, even if only the other identification marker 21b is included in the imaging range, It is possible to synthesize the image 23 and the real image 20 by arranging them at appropriate positions.

また、識別マーカー21bと他の識別マーカー21bとの識別同士間相対位置Rを算出し、算出した識別同士間相対位置Rと情報識別間相対位置Qとに基づいて、情報マーカー21aと他の識別マーカー21bとの情報識別間相対位置Qを算出し、算出した情報識別間相対位置Qと仮想画像23とを対応づけて記憶するので、他の識別マーカー21bと情報マーカー21aとの相対位置と仮想画像23とを対応づけて記憶しておくことが可能である。このため、撮影範囲に他の識別マーカー21bしか含まれていない場合であっても、記憶されている情報識別間相対位置Qに基づいて仮想画像23と実画像20とを適切な位置に配置して合成することが可能である。   Further, the relative position R between the identification markers 21b and the other identification markers 21b is calculated, and the information marker 21a and the other identification markers are determined based on the calculated identification relative position R and the information identification relative position Q. Since the relative position Q between information identifications with the marker 21b is calculated and the calculated relative position Q between information identifications and the virtual image 23 are stored in association with each other, the relative position between the other identification marker 21b and the information marker 21a is assumed to be virtual. It is possible to store the image 23 in association with each other. For this reason, even if only the other identification marker 21b is included in the imaging range, the virtual image 23 and the real image 20 are arranged at appropriate positions based on the stored relative position Q between information identifications. Can be synthesized.

また、新たに撮影した実画像20の画像データに含まれていた識別マーカー21bの識別被写体情報Tが既に記憶されている場合には、記憶されている識別被写体情報Tに基づいて、仮想画像23と実画像20とを適切な位置に配置して容易に合成することが可能である。   Further, when the identification subject information T of the identification marker 21b included in the image data of the newly photographed real image 20 has already been stored, the virtual image 23 is based on the stored identification subject information T. And the actual image 20 can be easily combined by arranging them at appropriate positions.

このように、Aマーカー21aを含まずBマーカー21b、Cマーカー21bを含む被写体を撮影することにより、仮想画像23の全体が含まれる合成画像24の全体ではなく、例えば、Aマーカー21aから離れた位置を撮影範囲F2により特定される仮想画像23の一部を合成の対象とした合成画像24を生成することが可能である。また、Bマーカー21b、Cマーカー21bのような識別マーカー21bを複数設けることにより、Aマーカー21aからより離れた位置の合成画像24を生成することが可能である。   In this way, by shooting a subject that does not include the A marker 21a but includes the B marker 21b and the C marker 21b, it is not the entire composite image 24 that includes the entire virtual image 23, for example, away from the A marker 21a. It is possible to generate a composite image 24 in which a part of the virtual image 23 whose position is specified by the shooting range F2 is a target for synthesis. Further, by providing a plurality of identification markers 21b such as the B marker 21b and the C marker 21b, it is possible to generate a composite image 24 at a position further away from the A marker 21a.

例えば、撮影範囲F1には、Aマーカー21aが含まれているので、撮影範囲F1の合成画像24では、システムキッチンの仮想画像23を実画像20上に合成することは可能である。ところが、撮影範囲Fにはマーカー21としてAマーカー21aのみが含まれている場合には、システムキッチンのレンジフード23aの周辺を見ることはできない。   For example, since the A marker 21a is included in the shooting range F1, the virtual image 23 of the system kitchen can be combined with the real image 20 in the composite image 24 of the shooting range F1. However, when only the A marker 21a is included as the marker 21 in the photographing range F, it is impossible to see the periphery of the range hood 23a of the system kitchen.

このため、撮影範囲Fの範囲内に、図5(a)に示すように、Aマーカー21aとともに含まれるようにBマーカー21bを設け、Aマーカー21aに対するBマーカー21bの相対位置を示す情報を予め記憶しておき、Bマーカー21bとレンジフード23aの周辺が含まれる撮影範囲F2にて被写体を撮影することにより、撮影された実画像のBマーカー21bの位置と記憶されているAマーカー21aに対するBマーカー21bの相対位置を示す情報により、Aマーカー21aの位置と撮影範囲F2との位置を特定することが可能である。そして、仮想画像23の撮影範囲F2に適した領域の画像を、撮影範囲F2の実画像20と合成して表示することを可能としている。このとき、Bマーカー21bの位置精度が問われず、撮影範囲F1内にAマーカー21aとともに含まれるように設ければ良いので、Aマーカー21aが撮影範囲から外れてしまうような位置であっても、仮想画像23を容易にかつ正確に合成することが可能である。また、さらに離れた位置の画像を見たい場合には、既に記憶されているマーカー21と同じ撮影範囲内に新たな識別マーカー21bが含まれるように撮影範囲を設定していけば、Aマーカー21aの位置に拘わらず所望の位置の合成画像24を生成すること画可能である。   For this reason, as shown in FIG. 5A, a B marker 21b is provided within the imaging range F so as to be included together with the A marker 21a, and information indicating the relative position of the B marker 21b with respect to the A marker 21a is provided in advance. The subject is recorded, and the subject is photographed in the photographing range F2 including the periphery of the B marker 21b and the range hood 23a, so that the position of the B marker 21b of the photographed real image and the B for the stored A marker 21a are recorded. With the information indicating the relative position of the marker 21b, the position of the A marker 21a and the position of the imaging range F2 can be specified. Then, an image of a region suitable for the shooting range F2 of the virtual image 23 can be combined with the real image 20 of the shooting range F2 and displayed. At this time, regardless of the positional accuracy of the B marker 21b, it may be provided so as to be included together with the A marker 21a in the shooting range F1, so even if the A marker 21a is out of the shooting range, It is possible to synthesize the virtual image 23 easily and accurately. Further, when it is desired to see an image at a further distant position, if the shooting range is set so that a new identification marker 21b is included in the same shooting range as the marker 21 that has already been stored, the A marker 21a It is possible to generate the composite image 24 at a desired position regardless of the position.

上記実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることはいうまでもない。   The above embodiment is for facilitating the understanding of the present invention, and is not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.

上記実施形態においては、情報マーカー21aが含まれていない撮影範囲に複数の識別マーカー21bが含まれていた場合に、2つの識別マーカー21b間の識別同士間相対位置Rを算出し、算出した識別同士間相対位置Rと仮想画像23とを対応づけた識別被写体情報Tを情報記憶領域14aに記憶する例について説明したが、これに限るものではない。例えば、既に識別被写体情報Tが記憶されている識別マーカー21bと識別被写体情報Tが記憶されていない識別マーカー21bとの識別同士間相対位置Rを算出し、既に識別被写体情報Tが記憶されている識別マーカー21bの情報識別間相対位置Qまたは識別同士間相対位置Rとから、記憶されていない識別マーカー21bの情報識別間相対位置Qを算出し、算出された情報識別間相対位置Qと仮想画像23とを対応づけた識別被写体情報Tを情報記憶領域14aに記憶してもよい。   In the above embodiment, when a plurality of identification markers 21b are included in the imaging range that does not include the information marker 21a, the relative position R between the identifications between the two identification markers 21b is calculated, and the calculated identification is calculated. Although an example in which the identification subject information T in which the relative position R and the virtual image 23 are associated with each other is stored in the information storage area 14a has been described, the present invention is not limited to this. For example, the relative position R between the identification marker 21b in which the identification subject information T is already stored and the identification marker 21b in which the identification subject information T is not stored is calculated, and the identification subject information T is already stored. The relative position Q between the information identifications of the identification marker 21b which is not stored is calculated from the relative position Q between the information identifications of the identification marker 21b or the relative position R between the identifications, and the calculated relative position Q between the information identifications and the virtual image The identified subject information T associated with 23 may be stored in the information storage area 14a.

上記実施形態おいては、Aマーカー(位置情報被写体)21aの位置をGPS等を用いて実測した地球上の絶対位置としたが、これに限るものではない。例えば、被写体となる例えば建物などに固有の基準点、及び、建物に固有の基準点から所定距離だけ離れた点であっても構わない。このような場合には、例えば、建物αの原点(0,0,0)に(1,0,0)の向きにAマーカーが貼付されていたり、建物βの原点(0,0,0)に(1,0,0)の向きにAマーカーが貼付されていてもよい。また、建物αのAマーカーと建物βのAマーカーとの区別が必要な場合には、各々のAマーカーに、例えば建物αの場合には「建物αの原点(0,0,0)に(1,0,0)の向きに貼付されている」というような建物を特定する情報を含む位置情報が対応づけられている。   In the above embodiment, the position of the A marker (position information subject) 21a is the absolute position on the earth measured using GPS or the like, but is not limited thereto. For example, it may be a reference point unique to a building or the like that is a subject, and a point that is a predetermined distance away from a reference point unique to the building. In such a case, for example, an A marker is attached in the direction of (1, 0, 0) to the origin (0, 0, 0) of the building α, or the origin (0, 0, 0) of the building β. In addition, an A marker may be attached in the direction of (1, 0, 0). Further, when it is necessary to distinguish between the A marker of the building α and the A marker of the building β, for example, in the case of the building α, “to the origin (0, 0, 0) of the building α ( Position information including information specifying a building such as “Attached in the direction of (1, 0, 0)” is associated.

このとき、Aマーカー(位置情報被写体)には仮想画像23を特定するための情報が対応づけられておらず、仮想画像を特定するための識別マーカーを別途備えていることとしてもよい。具体的には、建物構造モデルの仮想画像が対応づけられたXマーカー(識別マーカー)や、設備モデルの仮想画像が対応づけられたYマーカー(識別マーカー)を予め備えておく。Xマーカー及びYマーカーは、Aマーカーとの相対位置情報も対応づけられている。そして、例えば、Aマーカーとの相対位置情報を有するBマーカーとXマーカーまたはYマーカーが撮影された実画像に含まれる場合には、Bマーカーに基づいてAマーカーの位置を特定し、特定されたAマーカーの位置に基づいて、XマーカーまたはYマーカーに対応づけられた仮想画像を配置して合成画像を生成することが可能である。このとき、Bマーカーに基づいて特定されたAマーカーが建物αに設けられたAマーカーの場合には、XマーカーまたはYマーカーに基づいて建物αの建物構造モデルの仮想画像または建物αの設備モデルの仮想画像を合成し、Bマーカーに基づいて特定されたAマーカーが建物βに設けられたAマーカーの場合には、XマーカーまたはYマーカーに基づいて建物βの建物構造モデルの仮想画像または建物βの設備モデルの仮想画像を合成することが可能である。すなわち、マーカーの汎用性を高めることが可能である。   At this time, information for specifying the virtual image 23 is not associated with the A marker (position information subject), and an identification marker for specifying the virtual image may be separately provided. Specifically, an X marker (identification marker) associated with a virtual image of a building structure model and a Y marker (identification marker) associated with a virtual image of an equipment model are provided in advance. The X marker and the Y marker are also associated with relative position information with the A marker. For example, when a B marker having relative position information with respect to the A marker and an X marker or a Y marker are included in the photographed actual image, the position of the A marker is specified based on the B marker. Based on the position of the A marker, a virtual image associated with the X marker or the Y marker can be arranged to generate a composite image. At this time, when the A marker specified based on the B marker is an A marker provided in the building α, a virtual image of the building structure model of the building α or an equipment model of the building α based on the X marker or the Y marker When the A marker specified based on the B marker is an A marker provided in the building β, the virtual image or building of the building structure model of the building β based on the X marker or the Y marker It is possible to synthesize a virtual image of the equipment model of β. That is, it is possible to increase the versatility of the marker.

上記実施形態においては、仮想画像23がAマーカー21aに対応づけられている例について説明したが、これに限るものではない。例えば、識別マーカーであるBマーカー21bやCマーカー21bに対応づけられていても良い。この場合には、撮影された実画像20からBマーカー21bまたはCマーカー21bが検出されると、Bマーカー21bまたはCマーカー21bに対応づけられた仮想画像23が特定され、例えばAマーカー21aの位置を基準として仮想画像23が配置されるように設定されていたとする。このとき、実画像20にBマーカー21bが検出された場合には、算出された情報識別間相対位置Qに基づいて仮想画像23が位置合わせされるとともに、Bマーカー21bの仮想画像23上の位置が特定され、特定されたBマーカー21bの位置と撮影範囲とに基づいて、実画像20と仮想画像23とが合成される。また、実画像20にCマーカー21bが検出された場合には、算出された情報識別間相対位置Qと識別同士間相対位置Rに基づいて仮想画像23が位置合わせされるとともに、Cマーカー21bの仮想画像23上の位置が特定され、特定されたCマーカー21bの位置と撮影範囲とに基づいて、実画像20と仮想画像23とが合成される。また、Cマーカー21bの場合には、識別同士間相対位置と情報識別間相対位置とに基づいて、Aマーカー21aとCマーカー21bとの新たな情報識別間相対位置が記憶されている場合には、新たな情報識別間相対位置に基づいて仮想画像23が位置合わせされるとともに、Cマーカー21bの仮想画像23上の位置が特定され、特定されたCマーカー21bの位置と撮影範囲とに基づいて、実画像20と仮想画像23とが合成されてもよい。   In the said embodiment, although the example with which the virtual image 23 was matched with the A marker 21a was demonstrated, it does not restrict to this. For example, it may be associated with the B marker 21b or the C marker 21b which are identification markers. In this case, when the B marker 21b or the C marker 21b is detected from the photographed real image 20, the virtual image 23 associated with the B marker 21b or the C marker 21b is specified. For example, the position of the A marker 21a Is set so that the virtual image 23 is arranged on the basis of. At this time, when the B marker 21b is detected in the real image 20, the virtual image 23 is aligned based on the calculated relative position Q between information identifications, and the position of the B marker 21b on the virtual image 23 Is identified, and the actual image 20 and the virtual image 23 are combined based on the position of the identified B marker 21b and the shooting range. When the C marker 21b is detected in the real image 20, the virtual image 23 is aligned based on the calculated relative position Q between information identifications and the relative position R between identifications, and the C marker 21b. The position on the virtual image 23 is specified, and the real image 20 and the virtual image 23 are combined based on the specified position of the C marker 21b and the shooting range. In the case of the C marker 21b, when the new relative position between information identifications of the A marker 21a and the C marker 21b is stored based on the relative position between identifications and the relative position between information identifications. The virtual image 23 is aligned based on the new relative position between information identifications, the position of the C marker 21b on the virtual image 23 is specified, and based on the specified position of the C marker 21b and the imaging range. The real image 20 and the virtual image 23 may be combined.

また、仮想画像23は、マーカー21に対応づけられておらず、画像合成装置1の使用者が操作により、仮想画像23を選択しても良い。この場合には、仮想画像23と実画像20とを位置合わせするための基準となる位置が、仮想画像23に対応づけられていても良いし、使用者が操作により基準位置を設定しても良い。   Further, the virtual image 23 is not associated with the marker 21, and the user of the image composition device 1 may select the virtual image 23 by an operation. In this case, a reference position for aligning the virtual image 23 and the real image 20 may be associated with the virtual image 23, or the reference position may be set by a user operation. good.

上記実施形態では、静止画像を合成する例について説明したが、動画を合成する場合には、動画のフレームレートに合わせて、合成した画像を生成して表示すればよい。例えば、フレームレートが15fpsであれば、1秒間に15回、上記のように画像の合成処理を繰り返し表示部の画像を書き換えることにより実現可能である。   In the above embodiment, an example of combining still images has been described. However, when combining moving images, a combined image may be generated and displayed in accordance with the frame rate of the moving images. For example, if the frame rate is 15 fps, it can be realized by rewriting the image on the display unit by repeating the image composition processing as described above 15 times per second.

1 画像合成装置
3 壁
10 撮像部
12 制御部
14 記憶部
14a 情報記憶領域
14b 画像仮想展開領域
16 表示部
18 操作部
20 実画像
21 マーカー
21a 情報マーカー(Aマーカー)
21b 識別マーカー(Bマーカー、Cマーカー)
23 仮想画像
24 合成画像
F1 撮影範囲
F2 撮影範囲
P 位置情報
Q 情報識別間相対位置
R 識別同士間相対位置
T 識別被写体情報
DESCRIPTION OF SYMBOLS 1 Image composition apparatus 3 Wall 10 Imaging part 12 Control part 14 Storage part 14a Information storage area 14b Image virtual expansion area 16 Display part 18 Operation part 20 Real image 21 Marker 21a Information marker (A marker)
21b Identification marker (B marker, C marker)
23 Virtual image 24 Composite image F1 Shooting range F2 Shooting range P Position information Q Information identification relative position R Identification identification relative position T Identification subject information

Claims (4)

被写体を撮影した実画像と予め生成されている仮想画像とを合成する画像合成方法であって、
前記被写体に、自身の位置を示す位置情報を有し前記仮想画像が対応づけられた位置情報被写体と、撮影された実画像から識別可能であって前記仮想画像が対応づけられていない識別被写体とを貼付する工程と、
前記位置情報被写体と、前記識別被写体と、を含む前記被写体を撮影し、撮影された前記実画像を構成する画像データを記憶する実画像記憶工程と、
前記画像データに基づいて、前記位置情報被写体に対する前記識別被写体の情報識別間相対位置を算出し、算出した前記情報識別間相対位置と前記仮想画像とを前記識別被写体に対応づけた識別被写体情報を、記憶する識別被写体情報記憶工程と、
前記位置情報被写体を含まず前記識別被写体を含む前記被写体を撮影した際に、前記識別被写体情報に基づいて前記実画像と前記仮想画像とを合成する画像合成工程と、
を有することを特徴とする画像合成方法。
An image synthesis method for synthesizing a real image obtained by photographing a subject and a virtual image generated in advance,
A position information subject having position information indicating its own position and associated with the virtual image, and an identified subject that is identifiable from the captured real image and not associated with the virtual image ; A process of attaching,
A real image storage step of photographing the subject including the position information subject and the identification subject, and storing image data constituting the photographed real image;
Based on the image data, a relative position between information identifications of the identification subject with respect to the position information subject is calculated, and identification subject information in which the calculated information identification relative position and the virtual image are associated with the identification subject is obtained. An identification subject information storing step for storing,
An image synthesis step of synthesizing the real image and the virtual image based on the identified subject information when the subject including the identified subject is captured without including the position information subject;
An image synthesizing method characterized by comprising:
請求項1に記載の画像合成方法であって、
新たに撮影した実画像の画像データに、前記識別被写体と、前記識別被写体と異なる他の識別被写体とが含まれていた場合に、
前記新たに撮影した前記実画像の画像データに基づいて、前記識別被写体と前記他の識別被写体との識別同士間相対位置を算出し、算出した前記識別同士間相対位置と前記他の識別被写体とを対応づけた新たな識別被写体情報を記憶することを特徴とする画像合成方法。
The image composition method according to claim 1,
When the image data of a newly captured real image includes the identification subject and another identification subject different from the identification subject,
Based on the image data of the newly captured real image, a relative position between the identification subject and the other identification subject is calculated, and the calculated relative position between the identification subject and the other identification subject are calculated. And storing new discriminated subject information associated with each other.
請求項1に記載の画像合成方法であって、
新たに撮影した実画像の画像データに、前記識別被写体と、前記識別被写体と異なる他の識別被写体とが含まれていた場合に、
前記新たに撮影した前記実画像の画像データに基づいて、前記識別被写体と前記他の識別被写体との識別同士間相対位置を算出し、算出した前記識別同士間相対位置と前記情報識別間相対位置とに基づいて、前記位置情報被写体と前記他の識別被写体との新たな情報識別間相対位置を算出し、算出した前記新たな情報識別間相対位置と前記他の識別被写体とを対応づけた新たな識別被写体情報を記憶することを特徴とする画像合成方法。
The image composition method according to claim 1,
When the image data of a newly captured real image includes the identification subject and another identification subject different from the identification subject,
Based on the image data of the newly captured real image, a relative position between the identified subject and the other identified subject is calculated, and the calculated relative position between the identified subject and the relative position between the information identified Based on the above, a new information identification relative position between the position information subject and the other identification subject is calculated, and the new information identification relative position calculated is associated with the other identification subject. A method for synthesizing an image, characterized in that the identification subject information is stored.
請求項1乃至請求項3のいずれかに記載の画像合成方法であって、
新たに撮影した実画像の画像データに、前記識別被写体情報が既に記憶されている前記識別被写体が含まれている場合には、記憶されている前記識別被写体情報に基づいて前記実画像と前記仮想画像とを合成することを特徴とする画像合成方法。
An image composition method according to any one of claims 1 to 3,
When the identification subject for which the identification subject information is already stored is included in the image data of the newly captured real image, the real image and the virtual image are based on the stored identification subject information. An image composition method characterized by compositing an image.
JP2011038748A 2011-02-24 2011-02-24 Image composition method Active JP5764969B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011038748A JP5764969B2 (en) 2011-02-24 2011-02-24 Image composition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011038748A JP5764969B2 (en) 2011-02-24 2011-02-24 Image composition method

Publications (2)

Publication Number Publication Date
JP2012175665A JP2012175665A (en) 2012-09-10
JP5764969B2 true JP5764969B2 (en) 2015-08-19

Family

ID=46978073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011038748A Active JP5764969B2 (en) 2011-02-24 2011-02-24 Image composition method

Country Status (1)

Country Link
JP (1) JP5764969B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015014514A (en) * 2013-07-04 2015-01-22 パイオニア株式会社 Identification device
DE102019104172A1 (en) * 2019-02-19 2020-08-20 ACO Severin Ahlmann GmbH & Co Kommanditgesellschaft Computer-implemented method, computer program product and system for determining installation data relating to the location of at least one water-technical facility to be installed

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4242529B2 (en) * 1999-10-27 2009-03-25 オリンパス株式会社 Related information presentation device and related information presentation method
JP4367926B2 (en) * 2004-05-17 2009-11-18 キヤノン株式会社 Image composition system, image composition method, and image composition apparatus
JP4599184B2 (en) * 2005-02-02 2010-12-15 キヤノン株式会社 Index placement measurement method, index placement measurement device
JP5423406B2 (en) * 2010-01-08 2014-02-19 ソニー株式会社 Information processing apparatus, information processing system, and information processing method

Also Published As

Publication number Publication date
JP2012175665A (en) 2012-09-10

Similar Documents

Publication Publication Date Title
US8410441B2 (en) Thermal imaging camera for taking thermographic images
CN103179347B (en) The method of photographing panorama picture
TWI523517B (en) Image capturing device, image alignment method, and storage medium for performing the method
US9549122B2 (en) Imaging apparatus, photographing guide displaying method for imaging apparatus, and non-transitory computer readable medium
JP2012065263A (en) Imaging apparatus
KR101574636B1 (en) Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
US9918014B2 (en) Camera apparatus and method for generating image signal for viewfinder
WO2016002355A1 (en) Image capturing device and image capturing method
JP6456783B2 (en) Bar arrangement measuring device
JP5691629B2 (en) Image composition method
JP5764969B2 (en) Image composition method
JP5776218B2 (en) Image composition method
JP5691632B2 (en) Image composition method
JP2018032991A (en) Image display unit, image display method and computer program for image display
JP2012175667A (en) Image composition method
JP2016008830A (en) Surveying device, method for displaying of the surveying device, and program
JP2012175668A (en) Image combination method
CN108700403A (en) Information processing unit, information processing method and program
JP2016134686A (en) Imaging apparatus and imaging method
JP7769671B2 (en) Display control device, display control method, and imaging system
JP2015092780A (en) Imaging apparatus and imaging method
JP6395156B2 (en) Imaging apparatus and imaging method
JP2015056790A (en) Image processing apparatus, image processing method, and program
JPWO2017134882A1 (en) Information processing apparatus, information processing method, and program
JP2017112442A (en) Imaging apparatus, imaging method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150601

R150 Certificate of patent or registration of utility model

Ref document number: 5764969

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150