JP2009205556A - User interface device - Google Patents
User interface device Download PDFInfo
- Publication number
- JP2009205556A JP2009205556A JP2008048800A JP2008048800A JP2009205556A JP 2009205556 A JP2009205556 A JP 2009205556A JP 2008048800 A JP2008048800 A JP 2008048800A JP 2008048800 A JP2008048800 A JP 2008048800A JP 2009205556 A JP2009205556 A JP 2009205556A
- Authority
- JP
- Japan
- Prior art keywords
- image
- cursor
- display
- displayed
- display screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】従来、カメラでのカーソル撮影と画面上の表示更新との同期を取ることが困難だった。
【解決手段】ユーザインタフェース装置10は、一定周期で変化する画像の識別子を管理する画像ID管理部104と、画像IDに対応付けられたカーソル画像を第1の表示画面11に表示するカーソル表示部107と、画像IDに対応してカーソルの位置座標を記憶するカーソル座標記憶部105と、第1の表示画面11に表示されたカーソルを画像認識するカーソル認識部101と、カーソル認識部101で認識した結果と記憶しているカーソル位置座標から、操作端末2と第1の表示画面11との位置関係を推定する位置向き推定部102と、推定した位置向き情報に基づいて第1の表示画面11に表示する画像を生成する画像生成部103を備える。
【選択図】図5Conventionally, it has been difficult to synchronize cursor shooting with a camera and display update on a screen.
A user interface device includes: an image ID management unit that manages an identifier of an image that changes at a constant period; and a cursor display unit that displays a cursor image associated with the image ID on a first display screen. 107, a cursor coordinate storage unit 105 that stores the position coordinates of the cursor corresponding to the image ID, a cursor recognition unit 101 that recognizes an image of the cursor displayed on the first display screen 11, and recognition by the cursor recognition unit 101 The position / direction estimation unit 102 that estimates the positional relationship between the operation terminal 2 and the first display screen 11 from the result and the stored cursor position coordinates, and the first display screen 11 based on the estimated position / direction information. The image generation unit 103 generates an image to be displayed on the screen.
[Selection] Figure 5
Description
本発明は、カメラを備えた操作端末を利用して、ディスプレイ上に表示されている情報・コンテンツを操作・閲覧するユーザインタフェース装置に関する。 The present invention relates to a user interface device for operating / browsing information / content displayed on a display using an operation terminal equipped with a camera.
従来、ディスプレイ上に表示されている情報やウェブ(Web)コンテンツ、メニュー画面等を直感的に操作・閲覧するユーザインタフェースを実現することを目的として、カメラなどの光学センサを搭載した操作端末により、ディスプレイの位置・向きを推定する技術が提案されている。 Conventionally, for the purpose of realizing a user interface that intuitively operates and browses information displayed on a display, web (Web) content, menu screen, etc., by an operation terminal equipped with an optical sensor such as a camera, Techniques for estimating the position and orientation of the display have been proposed.
まず、リモコンなどの操作端末に搭載されたカメラと、ディスプレイ前面で点滅する点を利用し、ディスプレイ上の指示座標を計算する技術があった(例えば、特許文献1参照)。この技術を使うことで、ユーザが持つ操作端末が示す方向に応じて、ポインティングカーソルを動かすことができる。 First, there has been a technique for calculating indicated coordinates on a display using a camera mounted on an operation terminal such as a remote controller and a point blinking on the front of the display (see, for example, Patent Document 1). By using this technique, the pointing cursor can be moved in accordance with the direction indicated by the operation terminal held by the user.
また、拡張現実(AugmentedReality)型ユーザインタフェースを実現する技術の一つとして、ディスプレイに表示した明示的な画像マーカを画像認識し、その画像マーカが示す座標系を推定することで、ディスプレイの特定の場所に、情報や3DCGを重畳して表示する技術があった(例えば、非特許文献1)。これらの拡張現実型ユーザインタフェースは、四角形の画像マーカが示す4頂点の座標値から、カメラ画像の中心を原点とする座標系において、画像マーカの位置向きを示す座標変換マトリックスを、高い精度で求める技術(例えば、非特許文献2)を応用したものである。
しかしながら、ディスプレイ前面の点滅する点を画像認識する方法では、(1)カメラで撮影するタイミングとディスプレイの画面を更新するタイミングとを、正確に同期させる必要があるため、実現が容易ではない、(2)複数のフレーム間の差分画像を利用して、点の位置を取得しているために、認識に時間がかかることや、操作端末を動かした場合に正確な座標値を取得できない、といった課題があった。 However, in the method of recognizing the blinking point on the front surface of the display, (1) it is necessary to accurately synchronize the timing of shooting with the camera and the timing of updating the screen of the display. 2) Since the position of a point is acquired using a difference image between a plurality of frames, it takes time to recognize, and an accurate coordinate value cannot be acquired when the operation terminal is moved. was there.
また、明示的な画像マーカをディスプレイに表示する方法では、(1)画像マーカをディスプレイの特定位置に表示させた場合は、画面の一部が常に画像マーカによって隠れてしまい、ユーザにとって邪魔になる、(2)画像マーカを邪魔にならない位置に動的に移動させる場合は、画像マーカがカメラ画像から外れたとき認識できなくなることや、ディスプレイ表示とカメラ撮影のタイミングを考慮していないために、ディスプレイ自体の位置向きを正確に取得することができないといった課題があった。 In the method of displaying an explicit image marker on the display, (1) when the image marker is displayed at a specific position on the display, a part of the screen is always hidden by the image marker, which is an obstacle to the user. (2) When dynamically moving the image marker to an unobtrusive position, it becomes impossible to recognize when the image marker deviates from the camera image, and the timing of display display and camera shooting is not taken into consideration. There was a problem that the position and orientation of the display itself could not be obtained accurately.
さらに、従来技術では、カメラ画像の中心付近での精度を高めることに主眼をおいていないため、ポインティングのカーソルを表示する用途には使えても、ディスプレイに表示されている内容に対して、拡張現実型ユーザインタフェースを表示する用途には、精度が不十分となりがちであり、重畳して表示するCG画像が不安定になるといった課題もあった。 Furthermore, since the conventional technology does not focus on improving the accuracy near the center of the camera image, it can be used to display a pointing cursor, but it can be expanded with respect to the content displayed on the display. For the purpose of displaying a real user interface, the accuracy tends to be insufficient, and there is a problem that a CG image displayed in a superimposed manner becomes unstable.
本発明は、前記従来の課題を解決するものであり、カメラで撮影するタイミングとディスプレイの画像を更新するタイミングの同期を取る必要がなく、かつ、明示的なマーカが画面を占有せずに、ディスプレイの位置・向きを高精度で取得することを目的とする。 The present invention solves the above-mentioned conventional problems, and it is not necessary to synchronize the timing of capturing with the camera and the timing of updating the display image, and the explicit marker does not occupy the screen. The purpose is to obtain the position and orientation of the display with high accuracy.
前記従来の課題を解決するために、本発明のユーザインタフェース装置は、表示画面上に表示されるカーソル画像を画像撮像装置が撮影して得られる撮像画像の画像認識結果に基づいて、前記カーソル画像を含む新たな画像を表示させるユーザインタフェース装置であって、表示画面に表示させる表示画像を生成する画像生成手段と、所定の時間周期で繰り返し変化する複数種類の1つのカーソル画像を前記画像生成手段によって前記表示画像上に合成させるカーソル表示手段と、複数種類の前記カーソル画像と、それぞれの前記カーソル画像が表示される表示画像を特定するための画像IDとを予め対応付けて記憶する画像ID記憶手段と、前記撮像画像に含まれる前記カーソル画像を画像認識し、前記画像ID記憶手段の記憶内容に基づいて、撮像された前記カーソル画像の画像IDを、認識された前記カーソル画像から特定するカーソル認識手段と、撮像された前記カーソル画像の前記表示画面上の位置座標を算出し、算出された前記位置座標を、特定された前記画像IDと対応付けて記憶するカーソル座標記憶手段と、前記カーソル認識手段による前記認識結果と、前記カーソル座標記憶手段が記憶している前記位置座標とから、前記画像撮像装置が撮像した前記表示画像と、前記表示画像上の前記画像撮像装置が現在指し示している位置を示す指示座標とを推定する位置推定手段とを備え、前記カーソル表示手段は、新たな画像IDに対応する新たなカーソル画像を前記画像ID記憶手段から読み出し、前記新たなカーソル画像が、前記位置推定手段によって推定された前記指示座標に表示されるように、前記画像生成手段に前記カーソル画像を合成させることを特徴とする。 In order to solve the above-described conventional problems, the user interface device according to the present invention is based on an image recognition result of a captured image obtained by capturing an image of a cursor image displayed on a display screen by the cursor image. An image generation means for generating a display image to be displayed on a display screen, and a plurality of types of one cursor image that changes repeatedly at a predetermined time period. The image ID storage that stores in advance the cursor display means to be synthesized on the display image, a plurality of types of the cursor images, and the image ID for specifying the display image on which each of the cursor images is displayed. Image recognition of the cursor image included in the captured image and the stored contents of the image ID storage unit. A cursor recognizing unit for identifying an image ID of the captured cursor image from the recognized cursor image, calculating a position coordinate on the display screen of the captured cursor image, and calculating the calculated position From the cursor coordinate storage means for storing coordinates in association with the specified image ID, the recognition result by the cursor recognition means, and the position coordinates stored in the cursor coordinate storage means, the image imaging A position estimation unit configured to estimate the display image captured by the apparatus and an instruction coordinate indicating a position currently pointed to by the image capturing apparatus on the display image, and the cursor display unit sets a new image ID A corresponding new cursor image is read from the image ID storage means, and the new cursor image is estimated by the position estimation means. To appear in the serial instruction coordinates, characterized in that to combine the cursor image to the image generating unit.
本構成によって、画像撮像装置であるカメラで撮影するタイミングと、画像生成手段によって生成される表示画像及び前記カーソル表示手段によって生成されるカーソル画像を表示するディスプレイの画像を更新するタイミングとを同期させることなく、かつ、明示的なマーカが画面を占有することもなく、ディスプレイの位置・向きを高精度に取得することができる。 With this configuration, the timing of photographing with the camera that is the image capturing device is synchronized with the timing of updating the display image generated by the image generation unit and the display image that displays the cursor image generated by the cursor display unit. Without the explicit marker occupying the screen, the position and orientation of the display can be acquired with high accuracy.
また、前記画像撮像装置は、前記撮像画像を表示する第2の表示手段を備え、前記カーソル表示手段は、前記位置推定手段によって推定された前記フレームの前記位置座標に基づいて、新たなカーソル画像が、前記第2の表示手段に表示される新たな表示画像の中央に位置するように新たな表示画像を生成し、前記第2の表示手段に表示させるとしてもよい。 The image capturing apparatus includes a second display unit that displays the captured image, and the cursor display unit generates a new cursor image based on the position coordinates of the frame estimated by the position estimating unit. However, a new display image may be generated so as to be positioned at the center of the new display image displayed on the second display unit, and displayed on the second display unit.
本発明の上記構成によって、画像撮像装置に相当する操作端末が指し示す正確な位置に、カーソル画像であるポインティングカーソルを表示し、画像生成手段によって生成された表示画像であり、ディスプレイに表示された情報やコンテンツを、直感的に操作・閲覧することができる。同時に、第2の表示手段に表示される新たな表示画像であるカメラ画像の中心部に、カーソル画像が移動することで、カメラ画像の中心部での位置向きの精度を高くする効果もある。 With the above configuration of the present invention, a pointing cursor that is a cursor image is displayed at an accurate position indicated by an operation terminal corresponding to an image pickup device, and is a display image generated by an image generation unit, and information displayed on a display And content can be operated and viewed intuitively. At the same time, the cursor image is moved to the center of the camera image, which is a new display image displayed on the second display means, so that the accuracy of the position and orientation at the center of the camera image is increased.
さらに、前記カーソル表示手段は、前記画像生成手段によって生成される表示画面上で、表示するカーソル画像の位置座標を移動させた場合にのみ、カーソル画像及び画像IDを変更させてもよい。 Furthermore, the cursor display means may change the cursor image and the image ID only when the position coordinates of the cursor image to be displayed are moved on the display screen generated by the image generation means.
本発明の上記構成によって、カーソルが移動しない場合には、カーソル画像の周期的な変化を目立たせなくすることができる。 According to the above configuration of the present invention, when the cursor does not move, the periodic change of the cursor image can be made inconspicuous.
また、前記カーソル表示手段は、前記推定した位置関係に基づいて、前記画像生成手段によって生成される表示画面上に表示する前記カーソル画像の大きさを変化させ、前記カーソル座標記憶手段は、表示した前記カーソル画像の位置座標と大きさとを記憶するとしてもよい。 The cursor display means changes the size of the cursor image displayed on the display screen generated by the image generation means based on the estimated positional relationship, and the cursor coordinate storage means displays The position coordinates and size of the cursor image may be stored.
本発明の上記構成によって、ユーザと表示画面との距離が近い場合には、カーソルを小さく表示することができ、ユーザと表示画面との距離が遠い場合に、カーソルを大きく表示することができる。この結果、カーソルの見易さを向上させるだけでなく、カメラ画像に含まれるカーソルの大きさを一定に近づけることで、画像認識の精度も向上させることができる。 With the above configuration of the present invention, the cursor can be displayed small when the distance between the user and the display screen is short, and the cursor can be displayed large when the distance between the user and the display screen is long. As a result, not only the visibility of the cursor can be improved, but also the accuracy of image recognition can be improved by making the size of the cursor included in the camera image close to a constant value.
また、前記カーソル表示手段は、前記画像IDに応じて、前記カーソル画像に含まれる特定領域の色相成分を、前記画像生成手段によって生成される表示画像の変化に合わせて変化させてもよいし、前記カーソル表示手段は、前記画像IDに対応付けてカーソル画像の形状あるいはカーソル画像の軌跡部分を変化させてもよい。 The cursor display means may change the hue component of the specific area included in the cursor image according to the change in the display image generated by the image generation means, according to the image ID. The cursor display means may change the shape of the cursor image or the locus portion of the cursor image in association with the image ID.
本発明の上記構成によって、カーソル表示の周期的な変化を目立たせずに、かつ、認識しやすくすることができる。 With the above-described configuration of the present invention, it is possible to easily recognize the periodic change of the cursor display without conspicuous.
さらに、前記画像撮像装置は、前記撮像画像を表示する第2の表示手段を備え、前記画像生成手段は、推定した前記位置座標から、前記画像撮像装置の相対的位置を表す位置向き情報に基づいて、前記カメラで撮影した画像とCGで生成した画像とを合成して、前記第2の表示画面に表示すべき拡張現実画像を生成するとしてもよい。 Furthermore, the image capturing apparatus includes a second display unit that displays the captured image, and the image generating unit is based on position and orientation information that represents a relative position of the image capturing apparatus from the estimated position coordinates. Then, an augmented reality image to be displayed on the second display screen may be generated by synthesizing an image captured by the camera and an image generated by CG.
本発明の上記構成によれば、本発明のユーザインタフェース装置を、容易に、拡張現実型ユーザインタフェースへ適用することができる。 According to the above configuration of the present invention, the user interface device of the present invention can be easily applied to an augmented reality user interface.
このとき、前記カーソル表示手段は、前記第2の表示画面に拡張現実画像を表示しているか否かに基づいて、前記画像生成手段によって生成される表示画像上に表示するカーソル画像の大きさを変えるとしてもよい。 At this time, the cursor display means determines the size of the cursor image to be displayed on the display image generated by the image generation means based on whether or not the augmented reality image is displayed on the second display screen. It may be changed.
本発明の上記構成によれば、高い認識精度を必要とする拡張現実画像表示の場合には、カーソル表示を大きくして、認識精度を高めることが可能である。ユーザにとっても、第2の表示画面を通して、拡張現実画像を見ているときは、画像生成手段によって生成される表示画像上のカーソル表示が大きく表示されても邪魔にならない場合が多い。 According to the above configuration of the present invention, in the case of augmented reality image display that requires high recognition accuracy, the cursor display can be enlarged to increase the recognition accuracy. When viewing an augmented reality image through the second display screen, the user often does not get in the way even if the cursor display on the display image generated by the image generation means is displayed large.
また、前記画像生成手段は、推定した前記位置座標から、前記画像撮像装置の相対的位置を表す位置向き情報に基づいて、前記第2の表示画面に表示されている表示画像の一部分を切り出し、切り出された前記一部の表示画像を拡大して生成するとしてもよい。 Further, the image generation means cuts out a part of the display image displayed on the second display screen from the estimated position coordinates, based on position orientation information representing a relative position of the image capturing device, The part of the display image that has been cut out may be enlarged and generated.
本発明の上記構成によれば、画像生成手段によって生成される表示画像に表示されている内容を分かりやすく拡大表示するアプリケーションを実現することができる。 According to the above configuration of the present invention, it is possible to realize an application that enlarges and displays the contents displayed on the display image generated by the image generation means in an easy-to-understand manner.
本発明のユーザインタフェース装置は、カーソルの移動時にフレームを単位として周期的に変化するカーソル表示を、操作端末の画像撮像装置で撮影し、撮影されたカーソル画像を画像認識することにより、ディスプレイの位置向きを正確に推定することができる。さらに、推定した位置向きに基づき、操作端末の示す指示座標を求めることで、ディスプレイ上の正確な位置にポインティングカーソルを表示することができる。本発明では、ディスプレイ側に特殊なLEDの発光装置や、ディスプレイの表示と画像撮像手段で撮影するタイミングの同期手段などを設置することなく、容易に、使いやすいユーザインタフェースを実現することができる。特に、カメラ画像の中心部に表示するカーソル表示に基づいて、位置向きを推定するために、カメラ画像中心付近での認識精度が高くなるという特徴を持ち、単純にポインティングするユーザインタフェースだけでなく、カメラ画像上での正確な位置向きを必要とする、拡張現実型ユーザインタフェースを実現するためにも利用することができる。さらに、ユーザが持つ操作端末と、ディスプレイの位置関係に応じて、最適な大きさのカーソルを表示することで、認識の精度をさらに高めることもできる。 The user interface device of the present invention captures a cursor display that periodically changes in units of frames when the cursor is moved by the image capturing device of the operation terminal, and recognizes the captured cursor image as an image, thereby displaying the position of the display. The direction can be estimated accurately. Furthermore, by obtaining the indicated coordinates indicated by the operation terminal based on the estimated position and orientation, the pointing cursor can be displayed at an accurate position on the display. In the present invention, an easy-to-use user interface can be realized without installing a special LED light-emitting device on the display side or a means for synchronizing the display and timing of photographing with the image capturing means. In particular, in order to estimate the position and orientation based on the cursor display displayed in the center of the camera image, the recognition accuracy near the center of the camera image is high, and not only a simple user interface for pointing, It can also be used to realize an augmented reality user interface that requires an accurate position and orientation on a camera image. Furthermore, the accuracy of recognition can be further improved by displaying a cursor having an optimal size according to the positional relationship between the operation terminal held by the user and the display.
以下、本発明の実施の形態について、図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(実施の形態1)
本発明のユーザインタフェース装置は、「表示画面上に表示されるカーソル画像を画像撮像装置が撮影して得られる撮像画像の画像認識結果に基づいて、前記カーソル画像を含む新たな画像を表示させるユーザインタフェース装置」の一例であって、情報表示装置の第1の表示画面に表示されたカーソル画像を操作端末の画像撮像部で撮像し、撮像されたカーソル画像が常に操作端末の第2の表示画面の中央に表示されるように、第1の表示画面に表示されるカーソル画像を移動させて表示するという特徴がある。これにより、第1の表示画面に表示されるカーソル画像が、操作端末の動きに追従して、第1の表示画面内を移動するように表示することができる。
(Embodiment 1)
The user interface device according to the present invention is “a user who displays a new image including the cursor image based on an image recognition result of a captured image obtained by capturing an image of the cursor image displayed on the display screen. It is an example of an “interface device”, and the cursor image displayed on the first display screen of the information display device is captured by the image capturing unit of the operation terminal, and the captured cursor image is always the second display screen of the operation terminal. The cursor image displayed on the first display screen is moved and displayed so as to be displayed at the center of the screen. As a result, the cursor image displayed on the first display screen can be displayed so as to move within the first display screen following the movement of the operation terminal.
図1は、本発明の実施の形態1における情報表示装置1と操作端末2の外観図である。操作端末2は、「前記撮像画像を表示する第2の表示手段を備える前記画像撮像装置」の一例である。図1(a)は、操作端末2が指し示す、第1の表示画面11上の指示座標に、ポインティング用のカーソル画像を表示しているカーソル操作の一例を示したものである。このとき、第1の表示画面11には、例えば、ウェブブラウザのアプリケーションが表示されており、操作端末2を動かすことで、カーソル画像が動く。カーソル画像が移動した位置に応じて、ユーザが操作ボタンなどのユーザ入力部22を操作することで、カーソル近辺の位置に表示されているボタンを押すことや、データのドラッグ&ドロップ操作をすることができる。また、同図では、第2の表示画面23には、何も表示されていない。
FIG. 1 is an external view of an
図2は、第1の表示画面11に表示されたカーソル画像を操作端末2で撮影し、撮影されたカーソル画像を画像解析することにより、次のフレームで第1の表示画面11上に表示するカーソル画像の表示位置を決定する仕組みを説明する図である。図2(a)は、操作端末2が撮影したカーソル画像の画像データを情報表示装置1に送信し、情報表示装置1がカーソルの画像データを解析することにより、カーソル画像の次の表示位置を決定するフィードバックループの一例を示す図である。まず、情報表示装置1の起動時には、カーソル画像は第1の表示画面11の所定の位置に表示される。このカーソル画像を操作端末2が撮影し(1)、撮影によって得られた画像データを情報表示装置1の本体に送信する(2)。情報表示装置1の内部に備えられるユーザインタフェース装置10は操作端末2から受信装置した画像データを解析して、カーソル画像の次の表示位置を決定する(3)。このとき、決定されるカーソル画像の次の表示位置は、操作端末2の第2の表示画面23の中央にカーソル画像が表示されるように、第1の表示画面11上でのカーソル画像の表示位置が決定される。この決定に従って、第1の表示画面11上でカーソル画像の表示位置が移動される。操作端末2は、第1の表示画面11上で移動されて表示されたカーソル画像を撮影し(4)、撮影による画像データを情報表示装置1に送信する。なお、本発明は、実際には、操作端末2に第2の表示画面23がない場合でも適用可能である。しかし、操作端末2の第2の表示画面23でカーソル画像を表示している場合には、操作端末2は、第1の表示画面11で表示されたカーソル画像の移動に応じて、第2の表示画面23に表示されるカーソル画像の表示位置を移動する。図2(b)は、第1の表示画面11に表示されるカーソル画像と、情報表示装置1に対して斜め方向から撮影された場合のカーソル画像との関係を示す図である。図2(b)右に示すように、カーソル画像は、正面から見た場合には円形に見えるように表示される。これに対し、操作端末2が情報表示装置1に対して離れた位置から斜め方向にこのカーソル画像を撮影した場合には、図2(b)左に示すように、撮影により得られる画像データが表す形状は、元の画像よりも小さく、楕円形になる。情報表示装置1では、図2(b)左のように得られた画像データを解析して、図2(b)右のように表示されているカーソル画像が、図2(b)左のように変形して撮影される位置を解析する。
In FIG. 2, the cursor image displayed on the
図3は、図2(a)に示したカーソル画像の表示を行う場合の操作端末2及び情報表示装置1の動作を示すフローチャートである。同図に示すように、まず、情報表示装置1の本体で、第1の表示画面11に表示しようとする画像データが生成され、画像が表示される(S201)。操作端末2では、第1の表示画面11に表示された画像を撮影し(S202)、撮影した画像データを情報表示装置1に送信する(S203)。操作端末2から画像データを受信した情報表示装置1では、受信した画像データを解析して、操作端末2に撮像されたカーソルの画像ID及び位置座標を算出して、カーソル座標記憶部105に記憶させる。そして、現在、操作端末2が指し示している第1の表示画面11上の位置座標を、操作端末2の位置向きから推定して(S204)、次のフレームで第1の表示画面11に表示すべきカーソルの位置を決定し、決定した位置に次のフレームに対応するカーソルを表示する(S205)。情報表示装置1は、カーソルの画像IDを新たに表示されたカーソルに対応する画像IDに更新する(S206)。操作端末2は、ステップS202で撮影した第1の表示画面11の画像を、第2の表示画面23に表示する(S207)。
FIG. 3 is a flowchart showing operations of the
図1(c)は、実行対象のアプリケーションが拡張現実型ユーザインタフェースの場合に、第2の表示画面23に表示されるビットマップイメージの一例を示す図である。図1(c)は、画像撮像部21で撮影したカメラ画像を背景として、カメラ画像に含まれている第1の表示画面11の内容に関連する3次元CG画像を、前記の背景に重畳して表示した図である。このCG画像は、拡張現実の表示技術(例えば、非特許文献2)を利用することで、3次元の物体が実際にディスプレイの前の空間に存在するかのように表示することができ、普通に第1の表示画面11に表示したCG画像と比較して、立体感や実スケール感などを直感的に理解することができる。
FIG. 1C is a diagram illustrating an example of a bitmap image displayed on the
図4は、図1(c)に示した拡張現実型ユーザインタフェースのアプリケーションを実行する場合の操作端末2及び情報表示装置1の動作を示すフローチャートである。同図に示すように、まず、情報表示装置1の本体で、第1の表示画面11に表示しようとする画像データが生成され、画像320が表示される(S301)。操作端末2では、第1の表示画面11に表示された画像の一部(破線で囲んだ領域321)を撮影する(S302)。撮影された領域321の画像は、第2の表示画面23では、表示画像322のように表示される。操作端末2は、撮影した画像データを情報表示装置1に送信する(S303)。ここで、ユーザが操作端末2のユーザ入力部22などを操作することにより、操作端末2は、カーソル画像が表示されている周辺のボタンなどをクリックする意味の指示である入力データを受け付け、受け付けた入力データを情報表示装置1に送信する(S304)。操作端末2から画像データと入力データとを受信した情報表示装置1では、受信した画像データから操作端末2の位置を解析して(S305)、第2の表示画面23で表示させるための操作端末2用の背景画像323と、入力データで指示される拡張現実型ユーザインタフェースを用いて第2の表示画面23で表示させるための3次元画像(MR)324とを生成して合成する(S306)。情報表示装置1は、合成した操作端末2用のMR合成画像を操作端末2に送信する(S307)。操作端末2にMR合成画像を送信した後、情報表示装置1は、次のフレームで第1の表示画面11に表示すべき画像を背景画像として生成し、さらに、生成された背景画像上で表示されるべきカーソルの位置を決定する。そして、背景画像上の決定された位置に、次のフレームに対応するカーソル画像を合成して表示する(S308)。情報表示装置1は、カーソルの画像IDを新たに表示されたカーソルに対応する画像IDに更新する(S309)。ステップS307で、情報表示装置1からMR合成画像を受信すると、操作端末2は、ステップS307で受信したMRが背景画像に重畳して合成された画像325を、第2の表示画面23に表示する(S310)。
FIG. 4 is a flowchart showing operations of the
以下、情報表示装置1と操作端末2の構成を詳細に説明する。
Hereinafter, the configuration of the
(情報表示装置1の外観)
図1(a)において、情報表示装置1は、第1の表示画面11を有する。第1の表示画面11は、具体的には、デジタルテレビの表示画面(ディスプレイ)でよい。デジタルテレビは、具体的には、プラズマディスプレイや、液晶ディスプレイ、有機ELディスプレイでよい。また、情報表示装置1は、パーソナルコンピュータでもよい。この場合、ディスプレイとコンピュータが、一体型のものでもよいし、分離されてケーブルや無線等の通信手段で接続されたものでもよい。本発明で対象とする情報表示装置1は、少なくとも一つの表示画面が必要であるが、その他のハードウェア構成は汎用的な構成でも適用可能である。
(Appearance of information display device 1)
In FIG. 1A, the
(操作端末2の外観)
図1(a)において、操作端末2は、画像撮像部21とユーザ入力部22と第2の表示画面23を備えたリモートコントローラであり、情報表示装置1とは、IEEE801.11nなどの無線通信手段やLANケーブルなどの有線通信手段を用いて、情報を送受信することができる。以下、詳細に説明する。
(External appearance of operation terminal 2)
In FIG. 1A, an
画像撮像部21は、カラー画像データを撮影可能なカメラであり、具体的には、CCDやCMOSなどのイメージセンサに、カラー画像を取得するためのフィルタと、レンズを取り付けたものなどでよい。なお、本実施の形態では、カラー画像の画像情報を用いたが、白黒画像を用いても良い。本発明で利用可能な画像撮像部21は、第1の表示画面11であるディスプレイに表示されている画像を撮影可能なイメージセンサであれば、任意のフォーマットのものに対応できる。
The
ユーザ入力部22は、ユーザの指示を入力するための入力手段である。具体的には、2次元的な座標を入力することが可能な、タッチパッド、ジョイスティックなどや、ON・OFFの入力が可能な、ボタンなどを組み合わせたものでよい。また、第2の表示画面23と一体化したタッチパネル装置を含んでいてもよい。ユーザ入力部22で入力されたものは、操作端末2でのイベント処理に利用するだけでなく、データ送信部24、データ受信部13を経由して、情報表示装置1のアプリケーション処理部14へも伝えられ、アプリケーションの選択操作などのイベント入力として利用される。
The
第2の表示画面23は、操作端末2に取り付けられた表示画面であり、ユーザインタフェース装置10の第2画像生成部108が生成したGUI(グラフィカルユーザインタフェース)画像を表示することができる。特に、アプリケーションが、図1(c)のような、拡張現実型ユーザインタフェースの場合には、操作端末2の画像撮像部21で撮影したカメラ画像上に、関連する情報やCGを重畳して表示する。これにより、ユーザにとっては、あたかも、操作端末2の第2の表示画面23を通して、ディスプレイ(第1の表示画面11)を眺めるような感覚で、ディスプレイの表示内容に関連する情報やCGを重ね合わせて見ることが可能となる。なお、これらの技術は、ビデオシースルー型拡張現実技術と呼ばれる。
The
(情報表示装置1及び操作端末2の構成)
図5は、本発明の実施の形態1における、情報表示装置1と操作端末2の要部の構成の一例を示すブロック図である。情報表示装置1は、ユーザインタフェース装置10、第1の表示画面11、データ送信部12、データ受信部13、アプリケーション処理部14を有する。図1の外観図に含まれる構成は、図1の番号と同じ番号を振ってあり、これらの構成は同一のものであるため、説明を省略する。
(Configuration of
FIG. 5 is a block diagram illustrating an example of a configuration of main parts of the
操作端末2は、画像撮像部21、ユーザ入力部22、第2の表示画面23、データ送信部24、データ受信部25、画面表示部26を備える。画像撮像部21、ユーザ入力部22、第2の表示画面23に関しては、図1の外観図に対応してすでに説明しているので、同じ参照番号を振り、ここでの説明は省略する。
The
データ送信部24とデータ受信部25は、データ送信部12と、データ受信部13と、同様で、具体的には、IEEE801.11nなどの無線の通信手段やLANケーブルなどの有線の通信手段の処理部でよい。
The
画面表示部26は、データ受信部25を経由して送られてくる、画面のビットマップデータを、第2の表示画面23上に表示するための処理部である。ただし、カーソル表示部107と同様に、Microsoft社製WindowsVista(登録商標)などのウィンドウシステムを操作端末2が利用している場合は、実際に画面を描画するのではなく、ビットマップデータを画面上に描画してくれるようにシステムに要求するまでの処理を行なう。
The
以下、ユーザインタフェース装置10について、詳細に説明する。
Hereinafter, the
ユーザインタフェース装置10は、カーソル認識部101、位置向き推定部102、第1画像生成部103、画像ID管理部104、カーソル座標記憶部105、カーソルデータ記憶部106、カーソル表示部107及び第2画像生成部108を備える。
The
カーソル認識部101は、「前記撮像画像に含まれる前記カーソル画像を画像認識し、前記画像ID記憶手段の記憶内容に基づいて、撮像された前記カーソル画像の画像IDを、認識された前記カーソル画像から特定するカーソル認識手段」の一例であり、画像撮像部21で撮影したカラー画像データを、データ受信部13を介して受け取り、画像中に含まれるカーソルの領域情報を取得する。入力されるカラー画像データは、具体的には、RGB形式のデータ形式でよい。RGB形式は、R(赤)、G(緑)、B(青)の三つの成分で色を表現したものである。まず、入力されたカラー画像データは、HSV形式に変換する。HSV形式とは、H(色相)、S(彩度)、V(明度)の三つの成分で表現した色であり、RGB形式からHSVへの変換式の一例を図6に示す。ただし、図6において、R、G、Bはそれぞれ、0〜1.0までの数値であり、Hは0〜360.0、SとVは、0〜1.0とする。
The
次に、カーソル認識部101では、カーソルの領域をラベリング処理により切り出す(抽出する)。ここでのラベリング処理とは、特定の色の領域をグルーピングして、識別子となる番号を振っていく処理である。具体的には、二値化した画像をピクセル単位に走査し、近接する画素の連結関係を求めて、ラベルを振っていけばよい。例えば、図7(a)に示すカーソル画像が、図7(b)の緑色、図7(c)の黄緑色、及び図7(d)の赤色の3色で構成されているとする。これに対し、ラベリング処理で切り出す領域を、図7(b)の緑色領域と、図7(c)の黄緑色領域の2つの領域とする。このとき、ラベリング処理における二値化処理は、緑色領域と黄緑色領域の2つを含む領域を1とし、それ以外の領域を0とする画像を生成すれば良い。この緑色領域と黄緑色領域の判別方法としては、前記HSV形式の色データに対して、「H(色相)が70以上、135以下」などの条件式で判別すればよい。なお、HSV形式では、Hが120のときが緑色、Hが85のときが黄緑色を示すが、カメラで撮影した画像は照明や大気などの影響で、ディスプレイに表示している色と全く同じ色が取得できるとは限らない。このため、H(色相)の値が一定の範囲内のときに、所定の色であるとして判別している。このように、H(色相)を使って判別することによって、部屋の明るさの変化などによる悪影響を受け難い認識結果を得ることができる。また、緑色と黄緑色の2色は、人間の見た目には違いが分かりにくいが、カメラで撮影した画像のH(色相)成分を比較することで、定量的に容易に識別できるという特徴を持つ。
Next, the
具体的には、図8(a)のようなカーソルを含むカラー画像を撮影した場合、図8(b)のような、4つのラベルの領域が取得できる。さらに、図9(a)のような、各ラベルの位置(代表座標)と大きさ(面積)のデータを取得することができる。代表座標は、具体的には、領域の中心座標を用いても良いし、領域の輪郭線上の特徴点を利用しても良い。ここで、図8(a)のカーソル画像は、図8(b)に示すような同じ面積の3つの三角形(ラベル0、ラベル1、ラベル2)と、それよりも面積が一回り大きい三角形(ベース三角形ラベル3)の合計4つの三角形によって構成されている。そこで、ラベリング結果の中から、カーソル画像の候補となる4つの領域を選択し、その4つの領域の中から、面積が最大となる領域を選択することで、カーソルに含まれるベース三角形を決定できる。その後、ラベル0〜ラベル3の4領域の位置関係から、時計回りに、ラベル3→ラベル1→ラベル0→ラベル2という順番でラベルを特定し、それぞれの代表座標を取得することで、四角形を構成する4頂点データを取得することができる。
Specifically, when a color image including a cursor as shown in FIG. 8A is taken, four label areas as shown in FIG. 8B can be acquired. Further, as shown in FIG. 9A, the position (representative coordinates) and size (area) data of each label can be acquired. Specifically, the center coordinates of the area may be used as the representative coordinates, or feature points on the outline of the area may be used. Here, the cursor image in FIG. 8A includes three triangles (
さらに、図9(a)のラベリング結果から代表色のHSV値を比較し、図10のようなカラー値と画像IDの対応情報を元に、画像IDを判定する。なお、図10の対応関係のデータは、カーソルデータ記憶部106に保存しておけばよい。以上の処理により、カーソルを構成する4頂点データと、画像IDを取得し、図9(b)に示すカーソルデータを生成できる。ただし、この段階で生成するカーソルデータは、カーソルの候補データであり、誤ったカーソルデータも含めて、複数のカーソルデータが生成される場合もある。この場合、位置向き推定部102で、カーソルの位置向きを推定する段階で、複数の候補の中から、正しいカーソルデータを選択すれば良い。
Further, the HSV values of the representative colors are compared from the labeling result of FIG. 9A, and the image ID is determined based on the correspondence information between the color value and the image ID as shown in FIG. The correspondence data in FIG. 10 may be stored in the cursor
なお、周期的に変化する画像IDを判別する方法は、上記で記述した方法に限定されるものではない。例えば、図11(a)、図11(b)、図11(c)に示す、矢印型カーソル表示の場合は、矢印を構成する特定領域の色相値の違いで、3つのカーソル画像から異なる画像IDを取得することができる。この場合、カーソルの輪郭線を直線近似し、図12のような、特徴点を抽出し、その特徴点の座標に基づき、決められた領域の色値を取得することで実現できる。また、同じ矢印型のカーソルの場合でも、図11(d)に示すように、カーソルの形状とは別に、バーコード状のIDを付加しても良い。さらに、図11(e)のように、カーソルの軌跡表示部分の形状をコード化してIDを表現しても良い。このように、本発明のカーソル表示は、色や形状の情報を手がかりとして、少なくとも数種類のIDを識別可能であれば、どのようなデザインでもよい。本発明は、カーソルのデザインに限定されるものではない。 Note that the method for discriminating periodically changing image IDs is not limited to the method described above. For example, in the case of the arrow-type cursor display shown in FIGS. 11A, 11B, and 11C, an image that differs from three cursor images due to a difference in hue value of a specific area constituting the arrow. ID can be acquired. In this case, it can be realized by linearly approximating the outline of the cursor, extracting a feature point as shown in FIG. 12, and acquiring a color value of a determined area based on the coordinates of the feature point. Even in the case of the same arrow-shaped cursor, as shown in FIG. 11D, a barcode-like ID may be added separately from the cursor shape. Furthermore, as shown in FIG. 11 (e), the ID may be expressed by coding the shape of the cursor locus display portion. As described above, the cursor display according to the present invention may have any design as long as at least several types of IDs can be identified using color and shape information as clues. The present invention is not limited to cursor design.
図13(a)は、フレームごとのカーソルの位置の変化を示す図である。図13(b)は、図13(a)に示した各フレームに対して、順次、画像IDをインクリメントして割り当てる一例を示す図である。図13(c)は、図13(a)に示した各フレームに対して、カーソルが移動しないフレームには、同じ画像IDを割り当てる一例を示す図である。例えば、図13(a)に示すように、フレーム番号23とフレーム番号24とでは、カーソルが移動していない。上記の例では、図13(b)に示すように、フレームごとに単純にカーソルの画像IDをインクリメントして割り当てたが、図13(c)のように、カーソルが移動しない場合には、画像IDをインクリメントしないで同じ画像IDを用いるとしてもよい。図13(c)のように画像IDを割り当てる場合には、フレーム間でカーソルが移動したか否かを判断する必要があるが、フレームレートが高い場合であっても、カーソルの動きが少ないときには画像IDのパターンを増やさなくても対応できるという効果がある。
FIG. 13A is a diagram illustrating a change in the position of the cursor for each frame. FIG. 13B is a diagram illustrating an example in which image IDs are sequentially incremented and assigned to the frames illustrated in FIG. FIG. 13C is a diagram illustrating an example in which the same image ID is assigned to a frame in which the cursor does not move with respect to each frame illustrated in FIG. For example, as shown in FIG. 13A, the cursor is not moved between
次に、位置向き推定部102は、「前記カーソル認識手段による前記認識結果と、前記カーソル座標記憶手段が記憶している前記位置座標とから、前記画像撮像装置が撮像した前記表示画像と、前記表示画像上の前記画像撮像装置が現在指し示している位置を示す指示座標とを推定する位置推定手段」の一例であり、カーソルを画像認識した結果から、カメラを中心とする座標系におけるディスプレイの位置向きを推定し、さらに、操作端末が示すディスプレイ上での指示座標と算出するものである。以下、詳細に説明する。
Next, the position /
まず、カーソル認識部101から、図9(b)に示すカーソルを構成する4頂点の座標値と、カーソルの画像IDを取得する。なお、この4頂点は、4頂点以上の数であっても良い。例えば、カーソル画像が、図11に示す矢印型の場合は、カーソルの輪郭線を直線に近似することによって、図12に示す7頂点を取得することが可能である。座標値が既知の四角形(あるいは、4頂点以上の頂点データ)から、3次元の位置向きを示す4×4の座標変換マトリックスを生成する方法に関しては、具体的には、非特許文献2で説明されている方法を利用すれば良い。この方法は、拡張現実の研究分野では一般的な計算方法であり、最小2乗法の近似計算を利用して、画像マーカが示す座標変換マトリックスを決定することができる。ただし、最小2乗法の近似誤差は0になるとは限らないため、近似誤差がある閾値以上のものは、位置向きの推定が失敗したものとして扱えば良い。また、複数のカーソルの候補がある場合、近似誤差が最小のデータを、カーソルデータとして選択しても良い。以上のような計算により、カメラを原点とする座標系における、カーソル画像の位置向きを示す4×4の座標変換マトリックスM_cを生成できる。
First, the coordinate values of the four vertices constituting the cursor shown in FIG. 9B and the image ID of the cursor are acquired from the
次に、カーソルの画像IDを元に、カーソル座標記憶部105から、ディスプレイ上でのカーソルの座標値P1(P1x,P1y)を取得する。この座標値を、ディスプレイ中心からの相対的な位置に変換することで、カーソルを原点とする座標系を、ディスプレイの中心を原点とする座標系に変換するための4×4の座標変換マトリックスM_dを生成できる。この結果、2つのマトリックスM_cとM_dを掛け合わせることで、カメラ画像の中心を原点とする、ディスプレイの位置向きを示す4×4の座標変換マトリックスM_cdを生成できる。また、ディスプレイの原点(すなわち、M_cdの平行移動成分T(Tx,Ty,Tz))を通り、M_cdのZ軸の方向成分のベクトルRz(Rz_x,Rz_y,Rz_z)を法線とする平面と、カメラ画像の中心の点を示すx=y=0という直線の交点から、カーソルの指示座標P2(P2x,P2y)は算出できる。
Next, the coordinate value P1 (P1x, P1y) of the cursor on the display is acquired from the cursor coordinate
最後に、ディスプレイの位置向きを示す4×4の座標変換マトリックスM_cdの平行移動成分T(Tx,Ty,Tz)から、ディスプレイと操作端末との距離Dを生成する。具体的には、D=√(Tx*Tx+Ty*Ty+Tz*Tz)でよい。ただし、√(A)とは、Aの平方根を表す。なお、この距離は、絶対値は意味がないため、距離に比例して大きくなる値であればどのような式を用いてもよい。 Finally, a distance D between the display and the operation terminal is generated from the parallel movement component T (Tx, Ty, Tz) of the 4 × 4 coordinate transformation matrix M_cd indicating the position and orientation of the display. Specifically, D = √ (Tx * Tx + Ty * Ty + Tz * Tz) may be used. However, √ (A) represents the square root of A. In addition, since the absolute value has no meaning for this distance, any equation may be used as long as the value increases in proportion to the distance.
以上のような計算により、位置向き推定部102で、ディスプレイの位置向きを示す4×4の座標変換マトリックスMcdと、ディスプレイ上の指示座標(操作端末2が示すポインティングの座標)P2(P2x,P2y)、ディスプレイと操作端末の距離D、を決定することができる。
As a result of the above calculation, the position /
第1画像生成部103は、「表示画面に表示させる表示画像を生成する画像生成手段」、「推定した前記位置座標から、前記画像撮像装置の相対的位置を表す位置向き情報に基づいて、前記カメラで撮影した画像とCGで生成した画像とを合成して、前記第2の表示画面に表示すべき拡張現実画像を生成する前記画像生成手段」、「推定した前記位置座標から、前記画像撮像装置の相対的位置を表す位置向き情報に基づいて、前記第2の表示画面に表示されている表示画像の一部分を切り出し、切り出された前記一部の表示画像を拡大して生成する前記画像生成手段」または「ウェブブラウザ上に表示する画像を生成する前記画像生成手段」の一例であり、アプリケーション処理部14に応じて、第1の表示画面11に表示する画面を描画するものである。例えば、対象となるアプリケーションがウェブブラウザの場合は、図1(a)の第1の表示画面11に表示されているような画面を生成する。このとき、ユーザ入力部22からのユーザ入力だけでなく、位置向き推定部102で生成したディスプレイ上での指示座標P2等も入力インタフェースとして利用することで、直感的な入力手段でアプリケーションを制御し、この結果生成した画面を、第1の表示画面11に表示することができる。
The first
画像ID管理部104は、「複数種類の前記カーソル画像と、それぞれの前記カーソル画像が表示される表示画像を特定するための画像IDとを予め対応付けて記憶する画像ID記憶手段」の一例であり、次のフレームで表示するカーソル画像のIDを管理するものである。本発明では、ディスプレイとカメラの同期処理を行なわないため、カメラで認識したカーソル画像が、何フレーム前に表示要求を出したものであるのか判別できない。このため、画像IDは、過去に表示したカーソルの位置座標を一定フレーム数保存するためのものである。ここでの一定フレーム数は、カーソル表示部107が、カーソルの表示要求を出してから、第1の表示画面11上に表示され、さらに、画像撮像部21で撮影されたカメラ画像をユーザインタフェース装置10が認識するまでにかかる最大の経過時間によって決定すれば良い。例えば、カーソルの表示要求から、ディスプレイ上に表示されるまでの最大時間が0.1秒とし、ディスプレイに表示された画像を画像撮像部21が撮影してユーザインタフェース装置10が画像認識するまでにかかる最大時間を0.1秒とすると、0.2秒間が最大時間となる。このとき、1秒間に最大30フレームの画面更新が行なわれるとすると、6フレーム前のカーソル座標まで保存しておけばよい。この場合、画像IDは0〜5の6通りの整数で表現することができ、画像ID管理部104では、0、1、2、3、4、5、0、1、2、3、4、5、0、1、・・・のように、周期的にIDをインクリメントすることで、次のフレームに表示するカーソルのIDを決定する。
The image
カーソル座標記憶部105は、「撮像された前記カーソル画像の前記表示画面上の位置座標を算出し、算出された前記位置座標を、特定された前記画像IDと対応付けて記憶するカーソル座標記憶手段」の一例であり、カーソル表示部107で表示したカーソルのディスプレイ上での座標値と大きさを、画像ID管理部104で管理しているカーソルの画像IDに対応付けて保存するものである。また、カーソル表示部107は「前記推定した位置関係に基づいて、前記画像生成手段によって生成される表示画面上に表示する前記カーソル画像の大きさを変化させる前記カーソル表示手段」の一例である。座標値は、例えば、第1の表示装置11が1920x1080の解像度のディスプレイの場合、ディスプレイの左上の画素を(0,0)として、右下を(1919,1079)とする二次元座標として表現できる。カーソルの大きさとは、表示されるスケーリングを画素数に対応付けて表現したものでよい。具体的には、保存されるカーソル座標は、図14(a)のように、画像IDに対応したデータとして保存すればよい。
The cursor coordinate
カーソルデータ記憶部106は、画像IDと対応付けてカーソルの画像データを保存するための記憶手段であり、具体的には、図10のように、画像IDと対応したカーソル画像のビットマップデータそのものでもよいし、画像IDからビットマップデータを生成するためのパラメータのテーブルでもよい。
The cursor
カーソル表示部107は、「所定の時間周期で繰り返し変化する複数種類の1つのカーソル画像を前記画像生成手段によって前記表示画像上に合成させるカーソル表示手段」で、「新たな画像IDに対応する新たなカーソル画像を前記画像ID記憶手段から読み出し、前記新たなカーソル画像が、前記位置推定手段によって推定された前記指示座標に表示されるように、前記画像生成手段に前記カーソル画像を合成させる前記カーソル表示手段」または「前記位置推定手段によって推定された前記フレームの前記位置座標に基づいて、新たなカーソル画像が、前記第2の表示手段に表示される新たな表示画像の中央に位置するように新たな表示画像を生成し、前記第2の表示手段に表示させる前記カーソル表示手段」の一例である。また、カーソル表示部107は「前記画像IDに応じて、前記カーソル画像に含まれる特定領域の色相成分を、前記画像生成手段によって生成される表示画像の変化に合わせて変化させる前記カーソル表示手段」、「前記画像IDに対応付けてカーソル画像の形状を変化させる前記カーソル表示手段」、「前記画像IDに対応付けてカーソル画像の軌跡部分を変化させる前記カーソル表示手段」または「前記第2の表示画面に拡張現実画像を表示しているか否かに基づいて、前記画像生成手段によって生成される表示画像上に表示するカーソル画像の大きさを変える前記カーソル表示手段」の一例である。このカーソル表示部107は、操作端末2が示す指示座標に、カーソルを表示するものである。以下、カーソル表示部107の処理を詳細に説明する。
The
まず、位置向き推定部102から、ディスプレイ上の指示座標P2(P2x,P2y)と、操作端末とディスプレイとの距離Dを受け取る。次に、指示座標P2(P2x,P2y)から、画面上のカーソル位置C(Cx,Cy)を決定し、距離Dから、カーソルの大きさScを決定する。具体的には、カーソル位置は、C(Cx,Cy)=P2(P2x,P2y)でよい。また、カーソルの大きさScは、あらかじめ決めた定数k1、k2を用いて、Sc=k1*D+k2という式によって求めてもよい。この結果、ユーザがディスプレイから離れると、カーソルが大きく表示されることで、ユーザから見たカーソル表示の見易さを向上でき、さらに、カーソルの認識もしやすくなる。さらに、カーソルの大きさScは、アプリケーション処理部14で実行されるアプリケーションの種類に応じて、Scを変化させても良い。例えば、ポインティングカーソルを表示する用途のときをSc1とした場合に、拡張現実型ユーザインタフェースを表示する用途のとき2*Sc1となるようにスケールの係数を調整しても良い。本発明では、カーソルの大きさを調整することによって、カメラ画像上での認識誤差を画素単位に調整することができ、アプリケーションが必要とする認識精度を提供することが可能である。低い精度しか必要でない場合は、カーソルの大きさを小さくすることで、ディスプレイ上のカーソルの見た目を目立たせなくする効果がある。
First, from the position /
次に、このカーソル座標とカーソルの大きさに関して、前フレームで表示したカーソルと値を比較し、前フレームと同じ場合は、カーソルの表示は変化させない。このとき、前フレームとの相違が一定の範囲内の場合は、同じ値と判断し、前フレームの値を用いてもよい。これによって、手ぶれなどによるポインティングの揺れを押さえ、カーソル表示を安定化させることができる。前フレームと異なると判断した場合には、画像ID管理部104から次フレームのカーソル画像の画像IDを取得し、その画像IDに対応するカーソル画像を、カーソルデータ記憶部106から受け取る(図13(c)の場合)。次に、カーソル座標記憶部105に対して、画像IDと対応するカーソル座標C(Cx,Cy)の更新を要求する。例えば、カーソル座標記憶部105に記憶されている内容が図14(a)の状態において、画像IDが2で、位置向き推定部102で推定されたカーソルサイズが110、カーソルの座標(231,210)の場合、カーソル座標記憶部105に記憶されているカーソル座標データを、図14(b)のように更新する。最後に、カーソル表示部107は、カーソルサイズが110で、(231,210)にカーソルの画像中心となるように、画像IDが2のカーソル画像のビットマップを画面上に描画する。ただし、WindowsVista(登録商標)などのウィンドウシステムをユーザインタフェース装置10が利用している場合は、実際にカーソルを描画するのではなく、カーソルを含むビットマップを画面上に描画してくれるようにシステムに要求するまでを処理する。そのため、どのタイミングでカーソルが画面上に表示されるのか、ユーザインタフェース装置10は管理していない。なお、ウィンドウシステムを経由せずに、画面に表示するビットマップ(フレームバッファ)上に、直接、カーソルを描画するまで処理してもよい。
Next, regarding the cursor coordinates and the size of the cursor, the cursor is compared with the value displayed in the previous frame, and if it is the same as the previous frame, the cursor display is not changed. At this time, when the difference from the previous frame is within a certain range, it may be determined that the value is the same and the value of the previous frame may be used. As a result, the shaking of the pointing due to camera shake or the like can be suppressed, and the cursor display can be stabilized. If it is determined that it is different from the previous frame, the image ID of the cursor image of the next frame is acquired from the image
第2画像生成部108は、第2の表示画面23で表示する画像(ビットマップデータ)を生成する。具体的には、アプリケーションが、画面の拡大表示アプリケーションの場合は、ディスプレイ上の指示座標P2を取得し、アプリケーション処理部14で表示しているアプリ画面の指示座標近辺のビットマップを切り出した画像(例えば、図1(b))を生成する。この画像データは、データ送信部12、データ受信部25、画面表示部26を経由して、最終的には、第2の表示画面23に表示される。また、アプリケーションが、拡張現実型ユーザインタフェースの場合は、位置向き推定部102から、ディスプレイの位置向きを示す4×4の座標変換マトリックスM_cdを受け取り、その座標変換マトリックスの指し示す位置向きの基づき、カメラ画像上に表示されているディスプレイの内容と関連する情報をCGで重畳表示することで、図1(c)のような合成画像を生成することができる。この合成画像データは、データ送信部12、データ受信部25、画面表示部26を経由して、最終的には、第2の表示画面23に表示される。
The second
以上が、ユーザインタフェース装置10の説明である。
The above is the description of the
次に、データ送信部12と、データ受信部13は、具体的には、IEEE801.11nなどの無線の通信手段やLANケーブルなどの有線の通信手段の処理部でよい。本発明は、任意の通信手段を適用することが可能である。
Next, the
アプリケーション処理部14は、情報表示装置1で動作するアプリケーションを処理するものであり、具体的なアプリケーションとしては、ウェブブラウザや、3DCADアプリケーションなどでよい。アプリケーションが要求した描画処理は、第2画像生成部108に送られて、処理される。なお、本発明は、画面上に情報を表示する任意のアプリケーションに適用することが可能である。
The
(処理の流れの説明)
以上のように構成されたユーザインタフェース装置10について、フローチャートを使用して、処理の流れを説明する。
(Explanation of processing flow)
Regarding the
図15のフローチャートは、操作端末2の画像撮像部21で取得した画像情報から、ディスプレイの位置向きを推定し、操作端末2が指し示す位置にカーソルを表示するまでの処理である。図15の処理は、ユーザが操作端末2を操作中に一定時間間隔で呼ばれる(実行される)処理である。この一定時間は、30分の1秒や60分の1秒でよい。また、この一定時間とは、正確に定められた時間である必要はなく、連続的に図15の処理を繰り返して実行してもよい。なお、ユーザが操作端末2を操作中であるかどうかは、ユーザがボタンを押して操作開始を指示したことによって判定しても良いし、加速度センサやジャイロセンサを利用し、ユーザが端末を持っているかどうかによって判定しても良い。
The flowchart in FIG. 15 is a process from estimating the position and orientation of the display from the image information acquired by the
まず、操作端末2の画像撮像部21で、カラー画像(例えば、図8(a))を撮影し、データ送信部24とデータ受信部13を経由して、カーソル認識部101に送る(ステップS101)。カーソル認識部101では、予め定めた色値(色相の値)を閾値として、ラベリング処理(ステップS102)を行い、カーソル領域にラベルを割り当てる。ラベリング結果のデータは、図9(a)のようになり、この結果、カーソル認識部101は、図9(b)のような、カーソルの候補データを生成する。このとき、カーソルの候補がない場合や、正しく4頂点データや画像IDが認識されない場合は、カーソルが認識できなかった場合として処理は終了となる(ステップS103)。次に、カーソルの候補が1つ以上ある場合は、それぞれの候補に対して、位置向き推定部102で、ディスプレイの位置向きを示す座標変換マトリックスMcdと、ディスプレイ上の指示座標P2(P2x,P2y)、操作端末とディスプレイの距離Dを生成する(それぞれ、ステップS104、ステップS105、ステップ106)。このとき、推定時に利用する最小2乗法の認識誤差によって、認識誤差がある閾値以上のものは、正しく推定できなかったものとして処理は終了となる。次に、複数のカーソルが認識された場合は、認識誤差が最も小さなカーソル候補を選択すればよい。
First, a color image (for example, FIG. 8A) is captured by the
次に、カーソル表示部107は、位置向き推定部102から、ディスプレイ上の指示座標P2(P2x、P2y)と、操作端末とディスプレイとの距離Dを受け取り、次のフレームのカーソルの座標C(Cx,Cy)とカーソルの大きさScを算出する(ステップS107)。
Next, the
この結果、前フレームから、カーソルの位置座標または大きさが変化するかどうかを判定し(ステップS108)、変化している場合にのみ、画像ID管理部104に画像IDの更新を要求して(ステップS109)、次のフレームの画像IDを受け取り、その画像IDに対応させて、カーソル座標記憶部105のデータ更新(ステップS110)と、カーソル表示部107でのカーソル表示処理を行なう(ステップS111)。ここで、カーソル表示部107は、「前記画像生成手段によって生成される表示画面上で、表示するカーソル画像の位置座標を移動させた場合にのみ、カーソル画像及び画像IDを変更する前記カーソル表示手段」の一例である。
As a result, it is determined whether or not the position coordinate or the size of the cursor changes from the previous frame (step S108), and only when it has changed, the image
さらに、以上の処理によって決定したカーソルの位置・向きに応じて、第1画像生成部103では、アプリケーションの内容に応じた画面を生成する。例えば、カーソルがボタン上に移動することで、ボタンの色を変化させるといった処理や、特定のボタン上にカーソルが移動した状態で、ユーザ入力部22から選択操作のイベントがアプリケーション処理部14に伝わると、別途ウィンドウを起動して、アプリケーションの表示が更新されるなどの処理を行なう。また、図1(c)のような拡張現実型ユーザインタフェース表示の場合は、ステップS104で生成された座標変換マトリックスに基づいて、カメラ画像上にCG画像を合成し、その結果は、第2の表示画面23上に表示される。ただし、これらの処理は、図15の処理の流れとは独立して動作するものでもよい。
Furthermore, according to the position / orientation of the cursor determined by the above processing, the first
以上が、図15に示す、ユーザインタフェース装置の処理の流れに関する説明である。 This completes the description of the processing flow of the user interface device shown in FIG.
以上のように、第2の表示画面23の中央に表示されるように制御されるカーソル画像の画像IDが特定されることによって、そのカーソル画像が、何フレーム前に第1の表示画面11に表示された位置から移動されたかがわかるので、操作端末2の動きに正確に追従した位置に新たなカーソル画像を表示することができる。
As described above, by specifying the image ID of the cursor image controlled to be displayed in the center of the
なお、図1(b)は、実行対象のアプリケーションが拡大表示アプリケーションの場合に、第2の表示画面23に表示されるビットマップイメージの一例を示す図である。図1(b)に示すアプリケーション画面は、操作端末2で撮影されたカメラ画像ではなく、第1の表示画面11に表示されているビットマップの一部分を切り出して拡大表示したものである。この拡大表示アプリケーションを使うことにより、ユーザは、操作端末2で指し示した部分の画面の内容を拡大して表示することができる。このような拡大表示アプリケーションを実行する場合の処理手順は、図4のフローチャートに対応させると次のようになる。すなわち、ステップS306で、背景画像とMR画像とを合成する代わりに、情報表示装置1の第2画像生成部は背景画像の拡大画像を生成し、ステップS307では生成した拡大画像を操作端末2へ送信する。ステップS310で、操作端末2のデータ受信部25は、情報表示装置1のデータ送信部12から表示用の拡大画像を受信し、受信した拡大画像を第2の表示画面23に表示する。
FIG. 1B is a diagram illustrating an example of a bitmap image displayed on the
(実施の形態2)
図16は、本発明の実施の形態2の情報表示装置1601及び操作端末1602の要部の構成の一例を示すブロック図である。なお、外観図は、図1と同じであるが、本実施の形態2では操作端末1602が、携帯電話端末であり、情報表示装置1601とは独立した情報機器となる。図16において、図1および図5と同じ構成要素については同じ符号を用い、説明を省略する。
(Embodiment 2)
FIG. 16 is a block diagram illustrating an example of a configuration of main parts of the
ここで、図16に示した実施の形態2の構成と、図5に示した実施の形態1の構成とで大きく異なる点は、ユーザインタフェース装置10が操作端末1602内にあるか、情報表示装置1内にあるか、という点である。具体的には、実施の形態2では、携帯電話端末の外部ディスプレイを、第1の表示画面11として利用してもよい。この場合、第1の表示画面11に表示する内容は、携帯電話端末内のユーザインタフェース装置10の第1画像生成部103によって生成される。
Here, the difference between the configuration of the second embodiment shown in FIG. 16 and the configuration of the first embodiment shown in FIG. 5 is that the
情報表示装置1601は、第1の表示画面11と、データ受信部13、表示モード管理部15および画面表示部26を備える。実施の形態1と異なり、データ受信部13を経由して送られてきた画像データを、画面表示部26が受け取り、第1の表示画面11に画像を表示する。このとき、表示モード管理部15は、画面の表示モードを管理し、外部映像入力が操作端末1602からの画像情報を受け付けるモードの場合のみ、データ受信部13で受け取ったデータを画面表示部26に送るように制御する。具体的には、このモードは、ユーザからの指示によって変更しても良いし、データ受信部13を経由して、操作端末1602からのモード切り替え要求を利用して変更しても良い。
The
次に、操作端末1602は、ユーザインタフェース装置10、アプリケーション処理部14、画像撮像部21、ユーザ入力部22、第2の表示画面23、データ送信部24を備える。従って、実施の形態1と異なり、操作端末1602によって入力または撮像されたユーザ入力データやカラー画像データは、操作端末1602の中で、直接、ユーザインタフェース装置10に送られる。
Next, the
その他の構成は、実施の形態1と同様であるので、説明を省略する。 Since other configurations are the same as those of the first embodiment, description thereof is omitted.
実施の形態2では、情報表示装置1601と操作端末1602とが、全く異なる機器であり、このような場合、情報表示装置1601の第1の表示画面11と、操作端末1602の画像撮像部21とが、タイミングの同期を取って動作することは大変に難しい。本発明では、このような、ディスプレイの表示やカメラの撮影の同期が難しい場合においても、正確な位置向きを推定することが可能である。
In the second embodiment, the
(実施の形態3)
図17は、本発明の実施の形態3の情報表示装置1701及び操作端末1702の構成の一例を示すブロック図である。本実施の形態3の情報表示装置1701と操作端末1702とは、いずれか一方の装置にユーザインタフェース装置が含まれるのではなく、それぞれの表示画面で表示すべき画像をそれぞれの画像生成部で生成する点が、上記実施の形態1、2と異なる点である。
(Embodiment 3)
FIG. 17 is a block diagram showing an example of the configuration of the
具体的には、操作端末1702では、図5に示した操作端末2と比較して、画面表示部26が第2画像生成部108に変更され、新たに、カーソル認識部101が追加されている。すなわち、実施の形態3の操作端末1702では、画面表示部26のように、ユーザインタフェース装置10内の第2画像生成部から受信した画像データをそのまま第2の表示画面23に表示するのではなくて、第2画像生成部108が、画像撮像部21で撮像した撮像画像と情報表示装置1701から受信したカーソル画像、画像ID、操作端末1702の位置及び向きなどから第2の表示画面23に表示する表示画像を生成する。また、操作端末1702では、新たにカーソル認識部101を備え、カーソル認識部101は、画像撮像部21で撮像したカーソル画像から、画像認識によってカーソル画像の画像IDを特定する機能を備える。カーソル認識部101によって認識された認識結果は、操作端末1702のデータ送信部24及び情報表示装置1701のデータ受信部13を経由して、アプリケーション処理部14及び位置向き推定部102に与えられる。
Specifically, in the
これに対応して、情報表示装置1701では、図5に示したユーザインタフェース装置10からカーソル認識部101と第2画像生成部108とがなくなっている。このような構成により、情報表示装置1におけるユーザインタフェース装置10の処理負荷が軽減されるという効果がある。その分、操作端末1702は、単なるリモコンではなく、カーソル認識及び第2の表示画面に表示する表示画像を生成する機能を備えた携帯電話機などである必要がある。
Correspondingly, in the
なお、ブロック図(図5、16、17など)の各機能ブロックは典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されても良いし、一部又は全てを含むように1チップ化されても良い。例えばメモリ以外の機能ブロックが1チップ化されていても良い。 Each functional block in the block diagrams (FIGS. 5, 16, 17 and the like) is typically realized as an LSI which is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them. For example, the functional blocks other than the memory may be integrated into one chip.
ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。 The name used here is LSI, but it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。 Further, the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。 Further, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied.
また、各機能ブロックのうち、符号化または復号化の対象となるデータを格納する手段だけ1チップ化せずに別構成としても良い。 In addition, among the functional blocks, only the means for storing the data to be encoded or decoded may be configured separately instead of being integrated into one chip.
本発明にかかるユーザインタフェース装置は、デジタルテレビ装置やパーソナルコンピュータなどのディスプレイに表示されたコンテンツや情報を操作・閲覧するユーザインタフェース等として有用である。また、携帯電話端末の外部ディスプレイ出力時のユーザインタフェースや、据え置き型ゲーム機と携帯型ゲームを連携させて遊ぶゲームのユーザインタフェース等にも応用できる。 The user interface device according to the present invention is useful as a user interface for operating / browsing content and information displayed on a display such as a digital television device or a personal computer. Further, the present invention can be applied to a user interface when an external display is output from a mobile phone terminal, a user interface of a game that is played by linking a stationary game machine and a portable game, and the like.
1、1601、1701 情報表示装置
2、1602、1702 操作端末
10 ユーザインタフェース装置
11 第1の表示画面
12 データ送信部
13 データ受信部
14 アプリケーション処理部
15 表示モード管理部
21 画像撮像部
22 ユーザ入力部
23 第2の表示画面
24 データ送信部
25 データ受信部
26 画面表示部
101 カーソル認識部
102 位置向き推定部
103 画像生成部
104 画像ID管理部
105 カーソル座標記憶部
106 カーソルデータ記憶部
107 カーソル表示部
108 第2画像生成部
DESCRIPTION OF
Claims (17)
表示画面に表示させる表示画像を生成する画像生成手段と、
所定の時間周期で繰り返し変化する複数種類の1つのカーソル画像を前記画像生成手段によって前記表示画像上に合成させるカーソル表示手段と、
複数種類の前記カーソル画像と、それぞれの前記カーソル画像が表示される表示画像を特定するための画像IDとを予め対応付けて記憶する画像ID記憶手段と、
前記撮像画像に含まれる前記カーソル画像を画像認識し、前記画像ID記憶手段の記憶内容に基づいて、撮像された前記カーソル画像の画像IDを、認識された前記カーソル画像から特定するカーソル認識手段と、
撮像された前記カーソル画像の前記表示画面上の位置座標を算出し、算出された前記位置座標を、特定された前記画像IDと対応付けて記憶するカーソル座標記憶手段と、
前記カーソル認識手段による前記認識結果と、前記カーソル座標記憶手段が記憶している前記位置座標とから、前記画像撮像装置が撮像した前記表示画像と、前記表示画像上の前記画像撮像装置が現在指し示している位置を示す指示座標とを推定する位置推定手段とを備え、
前記カーソル表示手段は、新たな画像IDに対応する新たなカーソル画像を前記画像ID記憶手段から読み出し、前記新たなカーソル画像が、前記位置推定手段によって推定された前記指示座標に表示されるように、前記画像生成手段に前記カーソル画像を合成させる
ことを特徴とするユーザインタフェース装置。 A user interface device that displays a new image including the cursor image based on an image recognition result of a captured image obtained by the image capturing device capturing a cursor image displayed on a display screen,
Image generating means for generating a display image to be displayed on the display screen;
Cursor display means for synthesizing a plurality of types of one cursor image that repeatedly changes at a predetermined time period on the display image by the image generation means;
Image ID storage means for storing a plurality of types of cursor images and image IDs for specifying display images on which the cursor images are displayed in association with each other;
Cursor recognition means for recognizing the cursor image included in the captured image and identifying the image ID of the captured cursor image from the recognized cursor image based on the stored contents of the image ID storage means; ,
Cursor coordinate storage means for calculating a position coordinate on the display screen of the captured cursor image, and storing the calculated position coordinate in association with the specified image ID;
The display image picked up by the image pickup device and the image pickup device on the display image currently indicate from the recognition result by the cursor recognition means and the position coordinates stored in the cursor coordinate storage means. Position estimation means for estimating the indicated coordinates indicating the current position,
The cursor display means reads out a new cursor image corresponding to a new image ID from the image ID storage means, and displays the new cursor image at the indicated coordinates estimated by the position estimation means. A user interface device characterized by causing the image generation means to synthesize the cursor image.
前記カーソル表示手段は、前記位置推定手段によって推定されたフレームの前記位置座標に基づいて、新たなカーソル画像が、前記第2の表示手段に表示される新たな表示画像の中央に位置するように新たな表示画像を生成し、前記第2の表示手段に表示させる
ことを特徴とする請求項1記載のユーザインタフェース装置。 The image capturing apparatus includes a second display unit that displays the captured image.
The cursor display means is arranged so that the new cursor image is positioned at the center of the new display image displayed on the second display means based on the position coordinates of the frame estimated by the position estimation means. The user interface device according to claim 1, wherein a new display image is generated and displayed on the second display unit.
ことを特徴とする請求項2記載のユーザインタフェース装置。 The cursor display means changes the cursor image and the image ID only when the position coordinates of the cursor image to be displayed are moved on the display screen generated by the image generation means. A user interface device as described.
前記カーソル座標記憶手段は、表示した前記カーソル画像の位置座標と大きさとを記憶する
ことを特徴とする請求項2記載のユーザインタフェース装置。 The cursor display means changes the size of the cursor image displayed on the display screen generated by the image generation means based on the estimated positional relationship,
The user interface device according to claim 2, wherein the cursor coordinate storage unit stores a position coordinate and a size of the displayed cursor image.
ことを特徴とする請求項2記載のユーザインタフェース装置。 The said cursor display means changes the hue component of the specific area | region contained in the said cursor image according to the change of the display image produced | generated by the said image production | generation means according to the said image ID. 2. The user interface device according to 2.
ことを特徴とする請求項2記載のユーザインタフェース装置。 The user interface device according to claim 2, wherein the cursor display unit changes the shape of the cursor image in association with the image ID.
ことを特徴とする請求項2記載のユーザインタフェース装置。 The user interface device according to claim 2, wherein the cursor display unit changes a locus portion of the cursor image in association with the image ID.
前記画像生成手段は、推定した前記位置座標から、前記画像撮像装置の相対的位置を表す位置向き情報に基づいて、前記画像撮像装置で撮影した画像とCGで生成した画像とを合成して、前記第2の表示画面に表示すべき拡張現実画像を生成する
ことを特徴とする請求項2記載のユーザインタフェース装置。 The image capturing apparatus includes a second display unit that displays the captured image.
The image generation unit combines the image captured by the image capturing device and the image generated by CG based on the estimated position coordinates based on the position and orientation information representing the relative position of the image capturing device. The user interface device according to claim 2, wherein an augmented reality image to be displayed on the second display screen is generated.
ことを特徴とする請求項8記載のユーザインタフェース装置。 The cursor display means changes the size of the cursor image displayed on the display image generated by the image generation means based on whether or not the augmented reality image is displayed on the second display screen. 9. The user interface device according to claim 8, wherein:
ことを特徴とする請求項2記載のユーザインタフェース装置。 The image generation means cuts out a part of the display image displayed on the second display screen based on the position and orientation information indicating the relative position of the image capturing device from the estimated position coordinates. The user interface device according to claim 2, wherein the partial display image is enlarged and generated.
ことを特徴とする請求項2記載のユーザインタフェース装置。 The user interface device according to claim 2, wherein the image generation unit generates an image to be displayed on a web browser.
表示画面に表示させる表示画像を生成する画像生成手段と、
所定の時間周期で繰り返し変化する複数種類の1つのカーソル画像を前記画像生成手段によって前記表示画像上に合成させるカーソル表示手段と、
複数種類の前記カーソル画像と、それぞれの前記カーソル画像が表示される表示画像を特定するための画像IDとを予め対応付けて記憶する画像ID記憶手段と、
前記画像撮像装置から、前記撮像画像に含まれる前記カーソル画像の画像認識結果であり前記カーソル画像を表すカーソルデータを受信するカーソルデータ受信手段と、
前記カーソルデータ受信手段で受信した前記カーソルデータと、前記画像ID記憶手段の記憶内容とに基づいて、撮像された前記カーソル画像の画像IDを特定するカーソル認識手段と、
撮像された前記カーソル画像の前記表示画面上の位置座標を、前記カーソルデータ受信手段で受信した前記カーソルデータから算出し、算出された前記位置座標を、特定された前記画像IDと対応付けて記憶するカーソル座標記憶手段と、
前記カーソルデータ受信手段で受信した前記カーソルデータと、前記カーソル座標記憶手段が記憶している前記位置座標とから、前記画像撮像装置が撮像した前記表示画像と、前記表示画像上の前記画像撮像装置が現在指し示している位置を示す指示座標とを推定する位置推定手段とを備え、
前記カーソル表示手段は、新たな画像IDに対応する新たなカーソル画像を前記画像ID記憶手段から読み出し、前記新たなカーソル画像が、前記位置推定手段によって推定された前記指示座標に表示されるように、前記画像生成手段に前記カーソル画像を合成させる
ことを特徴とする情報表示装置。 An information display device that displays a new image including the cursor image on the basis of an image recognition result of a captured image obtained by the image capturing device capturing a cursor image displayed on a display screen,
Image generating means for generating a display image to be displayed on the display screen;
Cursor display means for synthesizing a plurality of types of one cursor image that repeatedly changes at a predetermined time period on the display image by the image generation means;
Image ID storage means for storing a plurality of types of cursor images and image IDs for specifying display images on which the cursor images are displayed in association with each other;
Cursor data receiving means for receiving cursor data representing the cursor image that is an image recognition result of the cursor image included in the captured image from the image capturing device;
Cursor recognition means for specifying an image ID of the captured cursor image based on the cursor data received by the cursor data receiving means and the stored contents of the image ID storage means;
The position coordinates on the display screen of the captured cursor image are calculated from the cursor data received by the cursor data receiving means, and the calculated position coordinates are stored in association with the specified image ID. Cursor coordinate storage means for
The display image picked up by the image pickup device from the cursor data received by the cursor data receiving means and the position coordinates stored in the cursor coordinate storage means, and the image pickup device on the display image Including position estimation means for estimating the indicated coordinates indicating the position currently pointed to,
The cursor display means reads out a new cursor image corresponding to a new image ID from the image ID storage means, and displays the new cursor image at the indicated coordinates estimated by the position estimation means. An information display device characterized by causing the image generation means to synthesize the cursor image.
前記情報表示装置の表示画面上に表示されるカーソル画像を撮像する撮像手段と、
前記撮像手段によって撮影された撮像画像に含まれる前記カーソル画像を画像認識し、前記画像認識結果として前記カーソル画像を表すカーソルデータを、前記情報表示装置に送信するカーソルデータ送信手段と、
前記情報表示装置から、新たに表示すべきカーソル画像のカーソルデータを受信するカーソルデータ受信手段と、
前記撮像手段によって撮影された前記撮像画像と、前記カーソルデータ受信手段で受信した前記カーソルデータとに基づいて、前記撮像画像に新たなカーソル画像を合成し、表示画像を生成する第2画像生成手段と、
前記第2画像生成手段によって生成された表示画像を表示する第2の表示手段と
を備えることを特徴とする操作端末。 An operation terminal for displaying a new image including the cursor image on the information display device based on an image recognition result of a captured image obtained by photographing a cursor image displayed on a display screen of the information display device. ,
Imaging means for imaging a cursor image displayed on a display screen of the information display device;
Cursor data transmission means for recognizing the cursor image included in the captured image captured by the imaging means and transmitting cursor data representing the cursor image as the image recognition result to the information display device;
Cursor data receiving means for receiving cursor data of a cursor image to be newly displayed from the information display device;
Second image generating means for generating a display image by synthesizing a new cursor image with the captured image based on the captured image captured by the imaging means and the cursor data received by the cursor data receiving means. When,
An operation terminal comprising: second display means for displaying the display image generated by the second image generation means.
を備えることを特徴とするデジタルテレビ装置。 A digital television device comprising: a display screen for displaying a display image generated by the image generation means; and the user interface device according to claim 1.
を備えることを特徴とする携帯電話端末。 A mobile phone terminal comprising: the image pickup device; and the user interface device according to claim 2.
表示画面に表示させる表示画像を生成する画像生成手段と、所定の時間周期で繰り返し変化する複数種類の1つのカーソル画像を前記画像生成手段によって前記表示画像上に合成させるカーソル表示手段と、複数種類の前記カーソル画像と、それぞれの前記カーソル画像が表示される表示画像を特定するための画像IDとを予め対応付けて記憶する画像ID記憶手段と、前記撮像画像に含まれる前記カーソル画像を画像認識し、前記画像ID記憶手段の記憶内容に基づいて、撮像された前記カーソル画像の画像IDを、認識された前記カーソル画像から特定するカーソル認識手段と、撮像された前記カーソル画像の前記表示画面上の位置座標を算出し、算出された前記位置座標を、特定された前記画像IDと対応付けて記憶するカーソル座標記憶手段と、前記カーソル認識手段による前記認識結果と、前記カーソル座標記憶手段が記憶している前記位置座標とから、前記画像撮像装置が撮像した前記表示画像と、前記表示画像上の前記画像撮像装置が現在指し示している位置を示す指示座標とを推定する位置推定手段として機能させ、前記カーソル表示手段が、新たな画像IDに対応する新たなカーソル画像を前記画像ID記憶手段から読み出し、前記新たなカーソル画像が、前記位置推定手段によって推定された前記指示座標に表示されるように、前記画像生成手段に前記カーソル画像を合成させるプログラム。 A program for a user interface device that displays a new image including the cursor image on the basis of an image recognition result of a captured image obtained by the image capturing device capturing a cursor image displayed on a display screen, Image generating means for generating a display image for displaying a computer on a display screen, cursor display means for combining a plurality of types of one cursor image that changes repeatedly at a predetermined time period on the display image by the image generating means, Image ID storage means for storing in advance a plurality of types of cursor images and image IDs for specifying display images on which the cursor images are displayed, and the cursor image included in the captured image. An image of the cursor image that is image-recognized and imaged based on the stored contents of the image ID storage means Cursor recognition means for identifying an ID from the recognized cursor image; calculating position coordinates on the display screen of the captured cursor image; and calculating the position coordinates as the identified image ID The display image picked up by the image pickup device from the cursor coordinate storage means stored in association, the recognition result by the cursor recognition means, and the position coordinates stored in the cursor coordinate storage means, It functions as a position estimation unit that estimates a pointed coordinate indicating a position that the image capturing device currently points on a display image, and the cursor display unit displays a new cursor image corresponding to a new image ID. Read from the storage means, so that the new cursor image is displayed at the indicated coordinates estimated by the position estimation means, Program for synthesizing the cursor image to the serial image generating means.
表示画面に表示させる表示画像を生成する画像生成手段と、
所定の時間周期で繰り返し変化する複数種類の1つのカーソル画像を前記画像生成手段によって前記表示画像上に合成させるカーソル表示手段と、
複数種類の前記カーソル画像と、それぞれの前記カーソル画像が表示される表示画像を特定するための画像IDとを予め対応付けて記憶する画像ID記憶手段と、
前記撮像画像に含まれる前記カーソル画像を画像認識し、前記画像ID記憶手段の記憶内容に基づいて、撮像された前記カーソル画像の画像IDを、認識された前記カーソル画像から特定するカーソル認識手段と、
撮像された前記カーソル画像の前記表示画面上の位置座標を算出し、算出された前記位置座標を、特定された前記画像IDと対応付けて記憶するカーソル座標記憶手段と、
前記カーソル認識手段による前記認識結果と、前記カーソル座標記憶手段が記憶している前記位置座標とから、前記画像撮像装置が撮像した前記表示画像と、前記表示画像上の前記画像撮像装置が現在指し示している位置を示す指示座標とを推定する位置推定手段とを備え、
前記カーソル表示手段は、新たな画像IDに対応する新たなカーソル画像を前記画像ID記憶手段から読み出し、前記新たなカーソル画像が、前記位置推定手段によって推定された前記指示座標に表示されるように、前記画像生成手段に前記カーソル画像を合成させる
ことを特徴とする集積回路。 An integrated circuit that displays a new image including the cursor image based on an image recognition result of a captured image obtained by the image capturing device capturing a cursor image displayed on a display screen;
Image generating means for generating a display image to be displayed on the display screen;
Cursor display means for synthesizing a plurality of types of one cursor image that repeatedly changes at a predetermined time period on the display image by the image generation means;
Image ID storage means for storing a plurality of types of cursor images and image IDs for specifying display images on which the cursor images are displayed in association with each other;
Cursor recognition means for recognizing the cursor image included in the captured image and identifying the image ID of the captured cursor image from the recognized cursor image based on the stored contents of the image ID storage means; ,
Cursor coordinate storage means for calculating a position coordinate on the display screen of the captured cursor image, and storing the calculated position coordinate in association with the specified image ID;
The display image picked up by the image pickup device and the image pickup device on the display image currently indicate from the recognition result by the cursor recognition means and the position coordinates stored in the cursor coordinate storage means. Position estimation means for estimating the indicated coordinates indicating the current position,
The cursor display means reads out a new cursor image corresponding to a new image ID from the image ID storage means, and displays the new cursor image at the indicated coordinates estimated by the position estimation means. An integrated circuit characterized by causing the image generation means to synthesize the cursor image.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008048800A JP2009205556A (en) | 2008-02-28 | 2008-02-28 | User interface device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008048800A JP2009205556A (en) | 2008-02-28 | 2008-02-28 | User interface device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2009205556A true JP2009205556A (en) | 2009-09-10 |
Family
ID=41147719
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008048800A Pending JP2009205556A (en) | 2008-02-28 | 2008-02-28 | User interface device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2009205556A (en) |
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011164666A (en) * | 2010-02-04 | 2011-08-25 | Sony Corp | Communication control device, communication control method and program |
| JP2012145981A (en) * | 2011-01-06 | 2012-08-02 | Nintendo Co Ltd | Image processing program, image processing apparatus, image processing system, and image processing method |
| WO2012169106A1 (en) * | 2011-06-10 | 2012-12-13 | Necカシオモバイルコミュニケーションズ株式会社 | Input device and method for controlling touch panel |
| US8384770B2 (en) | 2010-06-02 | 2013-02-26 | Nintendo Co., Ltd. | Image display system, image display apparatus, and image display method |
| US8512152B2 (en) | 2010-06-11 | 2013-08-20 | Nintendo Co., Ltd. | Hand-held game apparatus and housing part of the same |
| JP2014011654A (en) * | 2012-06-29 | 2014-01-20 | Sony Computer Entertainment Inc | Image analysis device, image analysis method, and image analysis system |
| US8633947B2 (en) | 2010-06-02 | 2014-01-21 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method |
| WO2014098206A1 (en) * | 2012-12-21 | 2014-06-26 | 京セラ株式会社 | Mobile terminal, and cursor display control method |
| US8780183B2 (en) | 2010-06-11 | 2014-07-15 | Nintendo Co., Ltd. | Computer-readable storage medium, image display apparatus, image display system, and image display method |
| US8854356B2 (en) | 2010-09-28 | 2014-10-07 | Nintendo Co., Ltd. | Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method |
| US8894486B2 (en) | 2010-01-14 | 2014-11-25 | Nintendo Co., Ltd. | Handheld information processing apparatus and handheld game apparatus |
| JP2015059999A (en) * | 2013-09-17 | 2015-03-30 | 日本電信電話株式会社 | Video display device and video display program |
| US9128293B2 (en) | 2010-01-14 | 2015-09-08 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
| US9278281B2 (en) | 2010-09-27 | 2016-03-08 | Nintendo Co., Ltd. | Computer-readable storage medium, information processing apparatus, information processing system, and information processing method |
| US10506218B2 (en) | 2010-03-12 | 2019-12-10 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
| US10796153B2 (en) | 2018-03-12 | 2020-10-06 | International Business Machines Corporation | System for maintenance and repair using augmented reality |
-
2008
- 2008-02-28 JP JP2008048800A patent/JP2009205556A/en active Pending
Cited By (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9128293B2 (en) | 2010-01-14 | 2015-09-08 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
| US8894486B2 (en) | 2010-01-14 | 2014-11-25 | Nintendo Co., Ltd. | Handheld information processing apparatus and handheld game apparatus |
| JP2011164666A (en) * | 2010-02-04 | 2011-08-25 | Sony Corp | Communication control device, communication control method and program |
| US10764565B2 (en) | 2010-03-12 | 2020-09-01 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
| US10506218B2 (en) | 2010-03-12 | 2019-12-10 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
| US8384770B2 (en) | 2010-06-02 | 2013-02-26 | Nintendo Co., Ltd. | Image display system, image display apparatus, and image display method |
| US8633947B2 (en) | 2010-06-02 | 2014-01-21 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method |
| US9282319B2 (en) | 2010-06-02 | 2016-03-08 | Nintendo Co., Ltd. | Image display system, image display apparatus, and image display method |
| US8512152B2 (en) | 2010-06-11 | 2013-08-20 | Nintendo Co., Ltd. | Hand-held game apparatus and housing part of the same |
| US10015473B2 (en) | 2010-06-11 | 2018-07-03 | Nintendo Co., Ltd. | Computer-readable storage medium, image display apparatus, image display system, and image display method |
| US8780183B2 (en) | 2010-06-11 | 2014-07-15 | Nintendo Co., Ltd. | Computer-readable storage medium, image display apparatus, image display system, and image display method |
| US9278281B2 (en) | 2010-09-27 | 2016-03-08 | Nintendo Co., Ltd. | Computer-readable storage medium, information processing apparatus, information processing system, and information processing method |
| US8854356B2 (en) | 2010-09-28 | 2014-10-07 | Nintendo Co., Ltd. | Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method |
| JP2012145981A (en) * | 2011-01-06 | 2012-08-02 | Nintendo Co Ltd | Image processing program, image processing apparatus, image processing system, and image processing method |
| WO2012169106A1 (en) * | 2011-06-10 | 2012-12-13 | Necカシオモバイルコミュニケーションズ株式会社 | Input device and method for controlling touch panel |
| JP2014011654A (en) * | 2012-06-29 | 2014-01-20 | Sony Computer Entertainment Inc | Image analysis device, image analysis method, and image analysis system |
| JP2014123243A (en) * | 2012-12-21 | 2014-07-03 | Kyocera Corp | Mobile terminal, cursor display control program, cursor display control method, cursor generation control program, cursor generation control method, icon display program, and icon display method |
| WO2014098206A1 (en) * | 2012-12-21 | 2014-06-26 | 京セラ株式会社 | Mobile terminal, and cursor display control method |
| US9671878B2 (en) | 2012-12-21 | 2017-06-06 | Kyocera Corporation | Mobile terminal and cursor display control method |
| JP2015059999A (en) * | 2013-09-17 | 2015-03-30 | 日本電信電話株式会社 | Video display device and video display program |
| US10796153B2 (en) | 2018-03-12 | 2020-10-06 | International Business Machines Corporation | System for maintenance and repair using augmented reality |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2009205556A (en) | User interface device | |
| US8896535B2 (en) | Image processing apparatus and method, and program therefor | |
| CN114049459B (en) | Mobile device, information processing method, and non-transitory computer-readable medium | |
| JP3926837B2 (en) | Display control method and apparatus, program, and portable device | |
| US9824497B2 (en) | Information processing apparatus, information processing system, and information processing method | |
| US9286722B2 (en) | Information processing apparatus, display control method, and program | |
| US20160357491A1 (en) | Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system | |
| CN110456907A (en) | Virtual screen control method, device, terminal equipment and storage medium | |
| EP2512141A1 (en) | System and method of user interaction in augmented reality | |
| US10372229B2 (en) | Information processing system, information processing apparatus, control method, and program | |
| JP7499819B2 (en) | Head-mounted display | |
| JP2002196855A (en) | Image processor, image processing method, recording medium, computer program and semiconductor device | |
| CN106898049A (en) | A kind of spatial match method and system for mixed reality equipment | |
| CN111399630B (en) | Virtual content interaction method, device, terminal device and storage medium | |
| JPWO2019130374A1 (en) | Terminal device, system, program and method | |
| EP4016464A1 (en) | Apparatus, system, method, and carrier means | |
| CN112351325B (en) | Gesture-based display terminal control method, terminal and readable storage medium | |
| US11043019B2 (en) | Method of displaying a wide-format augmented reality object | |
| JP6137910B2 (en) | Information processing apparatus, information processing method, and program | |
| TW201337644A (en) | Information processing device, information processing method, and recording medium | |
| JP6971788B2 (en) | Screen display control method and screen display control system | |
| US11449135B2 (en) | Terminal apparatus and method for controlling terminal apparatus | |
| CN111818326A (en) | Image processing method, device, system, terminal device and storage medium | |
| JP2015184986A (en) | Mixed reality sharing device | |
| JP6765846B2 (en) | Information processing equipment, information processing methods, and programs |