JP2009205556A - User interface device - Google Patents

User interface device Download PDF

Info

Publication number
JP2009205556A
JP2009205556A JP2008048800A JP2008048800A JP2009205556A JP 2009205556 A JP2009205556 A JP 2009205556A JP 2008048800 A JP2008048800 A JP 2008048800A JP 2008048800 A JP2008048800 A JP 2008048800A JP 2009205556 A JP2009205556 A JP 2009205556A
Authority
JP
Japan
Prior art keywords
image
cursor
display
displayed
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008048800A
Other languages
Japanese (ja)
Inventor
Katsunori Orimoto
勝則 折本
Toshikazu Otsuki
俊和 大槻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2008048800A priority Critical patent/JP2009205556A/en
Publication of JP2009205556A publication Critical patent/JP2009205556A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】従来、カメラでのカーソル撮影と画面上の表示更新との同期を取ることが困難だった。
【解決手段】ユーザインタフェース装置10は、一定周期で変化する画像の識別子を管理する画像ID管理部104と、画像IDに対応付けられたカーソル画像を第1の表示画面11に表示するカーソル表示部107と、画像IDに対応してカーソルの位置座標を記憶するカーソル座標記憶部105と、第1の表示画面11に表示されたカーソルを画像認識するカーソル認識部101と、カーソル認識部101で認識した結果と記憶しているカーソル位置座標から、操作端末2と第1の表示画面11との位置関係を推定する位置向き推定部102と、推定した位置向き情報に基づいて第1の表示画面11に表示する画像を生成する画像生成部103を備える。
【選択図】図5
Conventionally, it has been difficult to synchronize cursor shooting with a camera and display update on a screen.
A user interface device includes: an image ID management unit that manages an identifier of an image that changes at a constant period; and a cursor display unit that displays a cursor image associated with the image ID on a first display screen. 107, a cursor coordinate storage unit 105 that stores the position coordinates of the cursor corresponding to the image ID, a cursor recognition unit 101 that recognizes an image of the cursor displayed on the first display screen 11, and recognition by the cursor recognition unit 101 The position / direction estimation unit 102 that estimates the positional relationship between the operation terminal 2 and the first display screen 11 from the result and the stored cursor position coordinates, and the first display screen 11 based on the estimated position / direction information. The image generation unit 103 generates an image to be displayed on the screen.
[Selection] Figure 5

Description

本発明は、カメラを備えた操作端末を利用して、ディスプレイ上に表示されている情報・コンテンツを操作・閲覧するユーザインタフェース装置に関する。   The present invention relates to a user interface device for operating / browsing information / content displayed on a display using an operation terminal equipped with a camera.

従来、ディスプレイ上に表示されている情報やウェブ(Web)コンテンツ、メニュー画面等を直感的に操作・閲覧するユーザインタフェースを実現することを目的として、カメラなどの光学センサを搭載した操作端末により、ディスプレイの位置・向きを推定する技術が提案されている。   Conventionally, for the purpose of realizing a user interface that intuitively operates and browses information displayed on a display, web (Web) content, menu screen, etc., by an operation terminal equipped with an optical sensor such as a camera, Techniques for estimating the position and orientation of the display have been proposed.

まず、リモコンなどの操作端末に搭載されたカメラと、ディスプレイ前面で点滅する点を利用し、ディスプレイ上の指示座標を計算する技術があった(例えば、特許文献1参照)。この技術を使うことで、ユーザが持つ操作端末が示す方向に応じて、ポインティングカーソルを動かすことができる。   First, there has been a technique for calculating indicated coordinates on a display using a camera mounted on an operation terminal such as a remote controller and a point blinking on the front of the display (see, for example, Patent Document 1). By using this technique, the pointing cursor can be moved in accordance with the direction indicated by the operation terminal held by the user.

また、拡張現実(AugmentedReality)型ユーザインタフェースを実現する技術の一つとして、ディスプレイに表示した明示的な画像マーカを画像認識し、その画像マーカが示す座標系を推定することで、ディスプレイの特定の場所に、情報や3DCGを重畳して表示する技術があった(例えば、非特許文献1)。これらの拡張現実型ユーザインタフェースは、四角形の画像マーカが示す4頂点の座標値から、カメラ画像の中心を原点とする座標系において、画像マーカの位置向きを示す座標変換マトリックスを、高い精度で求める技術(例えば、非特許文献2)を応用したものである。
特開2007−86995号公報 岸野泰恵、塚本昌彦、坂根裕、西尾章治郎:「コンピュータディスプレイ上の自律移動型の半透明ビジュアルマーカ」、情報処理学会シンポジウムシリーズ(インタラクション2002)、Vol.2002、No.7、pp.14−21、2002. 加藤、Mark、浅野、橘:「マーカ追跡に基づく拡張現実感システムとそのキャリブレーション」、日本バーチャルリアリティ学会論文集 Vol.4 No.4、 pp.607−616、1999
In addition, as one of the technologies for realizing Augmented Reality type user interface, the image recognition of the explicit image marker displayed on the display is performed, and the coordinate system indicated by the image marker is estimated, so that a specific display There has been a technique for superimposing information and 3DCG on a place for display (for example, Non-Patent Document 1). These augmented reality user interfaces obtain a coordinate transformation matrix indicating the position and orientation of an image marker with high accuracy from the coordinate values of the four vertices indicated by the rectangular image marker in a coordinate system with the center of the camera image as the origin. This is an application of technology (for example, Non-Patent Document 2).
JP 2007-86995 A Yasue Kishino, Masahiko Tsukamoto, Hiroshi Sakane, Shojiro Nishio: “Autonomous Translucent Visual Marker on Computer Display”, Information Processing Society of Japan Symposium Series (Interaction 2002), Vol. 2002, no. 7, pp. 14-21, 2002. Kato, Mark, Asano, Tachibana: “Augmented reality system based on marker tracking and its calibration”, Transactions of the Virtual Reality Society of Japan Vol. 4 No. 4, pp. 607-616, 1999

しかしながら、ディスプレイ前面の点滅する点を画像認識する方法では、(1)カメラで撮影するタイミングとディスプレイの画面を更新するタイミングとを、正確に同期させる必要があるため、実現が容易ではない、(2)複数のフレーム間の差分画像を利用して、点の位置を取得しているために、認識に時間がかかることや、操作端末を動かした場合に正確な座標値を取得できない、といった課題があった。   However, in the method of recognizing the blinking point on the front surface of the display, (1) it is necessary to accurately synchronize the timing of shooting with the camera and the timing of updating the screen of the display. 2) Since the position of a point is acquired using a difference image between a plurality of frames, it takes time to recognize, and an accurate coordinate value cannot be acquired when the operation terminal is moved. was there.

また、明示的な画像マーカをディスプレイに表示する方法では、(1)画像マーカをディスプレイの特定位置に表示させた場合は、画面の一部が常に画像マーカによって隠れてしまい、ユーザにとって邪魔になる、(2)画像マーカを邪魔にならない位置に動的に移動させる場合は、画像マーカがカメラ画像から外れたとき認識できなくなることや、ディスプレイ表示とカメラ撮影のタイミングを考慮していないために、ディスプレイ自体の位置向きを正確に取得することができないといった課題があった。   In the method of displaying an explicit image marker on the display, (1) when the image marker is displayed at a specific position on the display, a part of the screen is always hidden by the image marker, which is an obstacle to the user. (2) When dynamically moving the image marker to an unobtrusive position, it becomes impossible to recognize when the image marker deviates from the camera image, and the timing of display display and camera shooting is not taken into consideration. There was a problem that the position and orientation of the display itself could not be obtained accurately.

さらに、従来技術では、カメラ画像の中心付近での精度を高めることに主眼をおいていないため、ポインティングのカーソルを表示する用途には使えても、ディスプレイに表示されている内容に対して、拡張現実型ユーザインタフェースを表示する用途には、精度が不十分となりがちであり、重畳して表示するCG画像が不安定になるといった課題もあった。   Furthermore, since the conventional technology does not focus on improving the accuracy near the center of the camera image, it can be used to display a pointing cursor, but it can be expanded with respect to the content displayed on the display. For the purpose of displaying a real user interface, the accuracy tends to be insufficient, and there is a problem that a CG image displayed in a superimposed manner becomes unstable.

本発明は、前記従来の課題を解決するものであり、カメラで撮影するタイミングとディスプレイの画像を更新するタイミングの同期を取る必要がなく、かつ、明示的なマーカが画面を占有せずに、ディスプレイの位置・向きを高精度で取得することを目的とする。   The present invention solves the above-mentioned conventional problems, and it is not necessary to synchronize the timing of capturing with the camera and the timing of updating the display image, and the explicit marker does not occupy the screen. The purpose is to obtain the position and orientation of the display with high accuracy.

前記従来の課題を解決するために、本発明のユーザインタフェース装置は、表示画面上に表示されるカーソル画像を画像撮像装置が撮影して得られる撮像画像の画像認識結果に基づいて、前記カーソル画像を含む新たな画像を表示させるユーザインタフェース装置であって、表示画面に表示させる表示画像を生成する画像生成手段と、所定の時間周期で繰り返し変化する複数種類の1つのカーソル画像を前記画像生成手段によって前記表示画像上に合成させるカーソル表示手段と、複数種類の前記カーソル画像と、それぞれの前記カーソル画像が表示される表示画像を特定するための画像IDとを予め対応付けて記憶する画像ID記憶手段と、前記撮像画像に含まれる前記カーソル画像を画像認識し、前記画像ID記憶手段の記憶内容に基づいて、撮像された前記カーソル画像の画像IDを、認識された前記カーソル画像から特定するカーソル認識手段と、撮像された前記カーソル画像の前記表示画面上の位置座標を算出し、算出された前記位置座標を、特定された前記画像IDと対応付けて記憶するカーソル座標記憶手段と、前記カーソル認識手段による前記認識結果と、前記カーソル座標記憶手段が記憶している前記位置座標とから、前記画像撮像装置が撮像した前記表示画像と、前記表示画像上の前記画像撮像装置が現在指し示している位置を示す指示座標とを推定する位置推定手段とを備え、前記カーソル表示手段は、新たな画像IDに対応する新たなカーソル画像を前記画像ID記憶手段から読み出し、前記新たなカーソル画像が、前記位置推定手段によって推定された前記指示座標に表示されるように、前記画像生成手段に前記カーソル画像を合成させることを特徴とする。   In order to solve the above-described conventional problems, the user interface device according to the present invention is based on an image recognition result of a captured image obtained by capturing an image of a cursor image displayed on a display screen by the cursor image. An image generation means for generating a display image to be displayed on a display screen, and a plurality of types of one cursor image that changes repeatedly at a predetermined time period. The image ID storage that stores in advance the cursor display means to be synthesized on the display image, a plurality of types of the cursor images, and the image ID for specifying the display image on which each of the cursor images is displayed. Image recognition of the cursor image included in the captured image and the stored contents of the image ID storage unit. A cursor recognizing unit for identifying an image ID of the captured cursor image from the recognized cursor image, calculating a position coordinate on the display screen of the captured cursor image, and calculating the calculated position From the cursor coordinate storage means for storing coordinates in association with the specified image ID, the recognition result by the cursor recognition means, and the position coordinates stored in the cursor coordinate storage means, the image imaging A position estimation unit configured to estimate the display image captured by the apparatus and an instruction coordinate indicating a position currently pointed to by the image capturing apparatus on the display image, and the cursor display unit sets a new image ID A corresponding new cursor image is read from the image ID storage means, and the new cursor image is estimated by the position estimation means. To appear in the serial instruction coordinates, characterized in that to combine the cursor image to the image generating unit.

本構成によって、画像撮像装置であるカメラで撮影するタイミングと、画像生成手段によって生成される表示画像及び前記カーソル表示手段によって生成されるカーソル画像を表示するディスプレイの画像を更新するタイミングとを同期させることなく、かつ、明示的なマーカが画面を占有することもなく、ディスプレイの位置・向きを高精度に取得することができる。   With this configuration, the timing of photographing with the camera that is the image capturing device is synchronized with the timing of updating the display image generated by the image generation unit and the display image that displays the cursor image generated by the cursor display unit. Without the explicit marker occupying the screen, the position and orientation of the display can be acquired with high accuracy.

また、前記画像撮像装置は、前記撮像画像を表示する第2の表示手段を備え、前記カーソル表示手段は、前記位置推定手段によって推定された前記フレームの前記位置座標に基づいて、新たなカーソル画像が、前記第2の表示手段に表示される新たな表示画像の中央に位置するように新たな表示画像を生成し、前記第2の表示手段に表示させるとしてもよい。   The image capturing apparatus includes a second display unit that displays the captured image, and the cursor display unit generates a new cursor image based on the position coordinates of the frame estimated by the position estimating unit. However, a new display image may be generated so as to be positioned at the center of the new display image displayed on the second display unit, and displayed on the second display unit.

本発明の上記構成によって、画像撮像装置に相当する操作端末が指し示す正確な位置に、カーソル画像であるポインティングカーソルを表示し、画像生成手段によって生成された表示画像であり、ディスプレイに表示された情報やコンテンツを、直感的に操作・閲覧することができる。同時に、第2の表示手段に表示される新たな表示画像であるカメラ画像の中心部に、カーソル画像が移動することで、カメラ画像の中心部での位置向きの精度を高くする効果もある。   With the above configuration of the present invention, a pointing cursor that is a cursor image is displayed at an accurate position indicated by an operation terminal corresponding to an image pickup device, and is a display image generated by an image generation unit, and information displayed on a display And content can be operated and viewed intuitively. At the same time, the cursor image is moved to the center of the camera image, which is a new display image displayed on the second display means, so that the accuracy of the position and orientation at the center of the camera image is increased.

さらに、前記カーソル表示手段は、前記画像生成手段によって生成される表示画面上で、表示するカーソル画像の位置座標を移動させた場合にのみ、カーソル画像及び画像IDを変更させてもよい。   Furthermore, the cursor display means may change the cursor image and the image ID only when the position coordinates of the cursor image to be displayed are moved on the display screen generated by the image generation means.

本発明の上記構成によって、カーソルが移動しない場合には、カーソル画像の周期的な変化を目立たせなくすることができる。   According to the above configuration of the present invention, when the cursor does not move, the periodic change of the cursor image can be made inconspicuous.

また、前記カーソル表示手段は、前記推定した位置関係に基づいて、前記画像生成手段によって生成される表示画面上に表示する前記カーソル画像の大きさを変化させ、前記カーソル座標記憶手段は、表示した前記カーソル画像の位置座標と大きさとを記憶するとしてもよい。   The cursor display means changes the size of the cursor image displayed on the display screen generated by the image generation means based on the estimated positional relationship, and the cursor coordinate storage means displays The position coordinates and size of the cursor image may be stored.

本発明の上記構成によって、ユーザと表示画面との距離が近い場合には、カーソルを小さく表示することができ、ユーザと表示画面との距離が遠い場合に、カーソルを大きく表示することができる。この結果、カーソルの見易さを向上させるだけでなく、カメラ画像に含まれるカーソルの大きさを一定に近づけることで、画像認識の精度も向上させることができる。   With the above configuration of the present invention, the cursor can be displayed small when the distance between the user and the display screen is short, and the cursor can be displayed large when the distance between the user and the display screen is long. As a result, not only the visibility of the cursor can be improved, but also the accuracy of image recognition can be improved by making the size of the cursor included in the camera image close to a constant value.

また、前記カーソル表示手段は、前記画像IDに応じて、前記カーソル画像に含まれる特定領域の色相成分を、前記画像生成手段によって生成される表示画像の変化に合わせて変化させてもよいし、前記カーソル表示手段は、前記画像IDに対応付けてカーソル画像の形状あるいはカーソル画像の軌跡部分を変化させてもよい。   The cursor display means may change the hue component of the specific area included in the cursor image according to the change in the display image generated by the image generation means, according to the image ID. The cursor display means may change the shape of the cursor image or the locus portion of the cursor image in association with the image ID.

本発明の上記構成によって、カーソル表示の周期的な変化を目立たせずに、かつ、認識しやすくすることができる。   With the above-described configuration of the present invention, it is possible to easily recognize the periodic change of the cursor display without conspicuous.

さらに、前記画像撮像装置は、前記撮像画像を表示する第2の表示手段を備え、前記画像生成手段は、推定した前記位置座標から、前記画像撮像装置の相対的位置を表す位置向き情報に基づいて、前記カメラで撮影した画像とCGで生成した画像とを合成して、前記第2の表示画面に表示すべき拡張現実画像を生成するとしてもよい。   Furthermore, the image capturing apparatus includes a second display unit that displays the captured image, and the image generating unit is based on position and orientation information that represents a relative position of the image capturing apparatus from the estimated position coordinates. Then, an augmented reality image to be displayed on the second display screen may be generated by synthesizing an image captured by the camera and an image generated by CG.

本発明の上記構成によれば、本発明のユーザインタフェース装置を、容易に、拡張現実型ユーザインタフェースへ適用することができる。   According to the above configuration of the present invention, the user interface device of the present invention can be easily applied to an augmented reality user interface.

このとき、前記カーソル表示手段は、前記第2の表示画面に拡張現実画像を表示しているか否かに基づいて、前記画像生成手段によって生成される表示画像上に表示するカーソル画像の大きさを変えるとしてもよい。   At this time, the cursor display means determines the size of the cursor image to be displayed on the display image generated by the image generation means based on whether or not the augmented reality image is displayed on the second display screen. It may be changed.

本発明の上記構成によれば、高い認識精度を必要とする拡張現実画像表示の場合には、カーソル表示を大きくして、認識精度を高めることが可能である。ユーザにとっても、第2の表示画面を通して、拡張現実画像を見ているときは、画像生成手段によって生成される表示画像上のカーソル表示が大きく表示されても邪魔にならない場合が多い。   According to the above configuration of the present invention, in the case of augmented reality image display that requires high recognition accuracy, the cursor display can be enlarged to increase the recognition accuracy. When viewing an augmented reality image through the second display screen, the user often does not get in the way even if the cursor display on the display image generated by the image generation means is displayed large.

また、前記画像生成手段は、推定した前記位置座標から、前記画像撮像装置の相対的位置を表す位置向き情報に基づいて、前記第2の表示画面に表示されている表示画像の一部分を切り出し、切り出された前記一部の表示画像を拡大して生成するとしてもよい。   Further, the image generation means cuts out a part of the display image displayed on the second display screen from the estimated position coordinates, based on position orientation information representing a relative position of the image capturing device, The part of the display image that has been cut out may be enlarged and generated.

本発明の上記構成によれば、画像生成手段によって生成される表示画像に表示されている内容を分かりやすく拡大表示するアプリケーションを実現することができる。   According to the above configuration of the present invention, it is possible to realize an application that enlarges and displays the contents displayed on the display image generated by the image generation means in an easy-to-understand manner.

本発明のユーザインタフェース装置は、カーソルの移動時にフレームを単位として周期的に変化するカーソル表示を、操作端末の画像撮像装置で撮影し、撮影されたカーソル画像を画像認識することにより、ディスプレイの位置向きを正確に推定することができる。さらに、推定した位置向きに基づき、操作端末の示す指示座標を求めることで、ディスプレイ上の正確な位置にポインティングカーソルを表示することができる。本発明では、ディスプレイ側に特殊なLEDの発光装置や、ディスプレイの表示と画像撮像手段で撮影するタイミングの同期手段などを設置することなく、容易に、使いやすいユーザインタフェースを実現することができる。特に、カメラ画像の中心部に表示するカーソル表示に基づいて、位置向きを推定するために、カメラ画像中心付近での認識精度が高くなるという特徴を持ち、単純にポインティングするユーザインタフェースだけでなく、カメラ画像上での正確な位置向きを必要とする、拡張現実型ユーザインタフェースを実現するためにも利用することができる。さらに、ユーザが持つ操作端末と、ディスプレイの位置関係に応じて、最適な大きさのカーソルを表示することで、認識の精度をさらに高めることもできる。   The user interface device of the present invention captures a cursor display that periodically changes in units of frames when the cursor is moved by the image capturing device of the operation terminal, and recognizes the captured cursor image as an image, thereby displaying the position of the display. The direction can be estimated accurately. Furthermore, by obtaining the indicated coordinates indicated by the operation terminal based on the estimated position and orientation, the pointing cursor can be displayed at an accurate position on the display. In the present invention, an easy-to-use user interface can be realized without installing a special LED light-emitting device on the display side or a means for synchronizing the display and timing of photographing with the image capturing means. In particular, in order to estimate the position and orientation based on the cursor display displayed in the center of the camera image, the recognition accuracy near the center of the camera image is high, and not only a simple user interface for pointing, It can also be used to realize an augmented reality user interface that requires an accurate position and orientation on a camera image. Furthermore, the accuracy of recognition can be further improved by displaying a cursor having an optimal size according to the positional relationship between the operation terminal held by the user and the display.

以下、本発明の実施の形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施の形態1)
本発明のユーザインタフェース装置は、「表示画面上に表示されるカーソル画像を画像撮像装置が撮影して得られる撮像画像の画像認識結果に基づいて、前記カーソル画像を含む新たな画像を表示させるユーザインタフェース装置」の一例であって、情報表示装置の第1の表示画面に表示されたカーソル画像を操作端末の画像撮像部で撮像し、撮像されたカーソル画像が常に操作端末の第2の表示画面の中央に表示されるように、第1の表示画面に表示されるカーソル画像を移動させて表示するという特徴がある。これにより、第1の表示画面に表示されるカーソル画像が、操作端末の動きに追従して、第1の表示画面内を移動するように表示することができる。
(Embodiment 1)
The user interface device according to the present invention is “a user who displays a new image including the cursor image based on an image recognition result of a captured image obtained by capturing an image of the cursor image displayed on the display screen. It is an example of an “interface device”, and the cursor image displayed on the first display screen of the information display device is captured by the image capturing unit of the operation terminal, and the captured cursor image is always the second display screen of the operation terminal. The cursor image displayed on the first display screen is moved and displayed so as to be displayed at the center of the screen. As a result, the cursor image displayed on the first display screen can be displayed so as to move within the first display screen following the movement of the operation terminal.

図1は、本発明の実施の形態1における情報表示装置1と操作端末2の外観図である。操作端末2は、「前記撮像画像を表示する第2の表示手段を備える前記画像撮像装置」の一例である。図1(a)は、操作端末2が指し示す、第1の表示画面11上の指示座標に、ポインティング用のカーソル画像を表示しているカーソル操作の一例を示したものである。このとき、第1の表示画面11には、例えば、ウェブブラウザのアプリケーションが表示されており、操作端末2を動かすことで、カーソル画像が動く。カーソル画像が移動した位置に応じて、ユーザが操作ボタンなどのユーザ入力部22を操作することで、カーソル近辺の位置に表示されているボタンを押すことや、データのドラッグ&ドロップ操作をすることができる。また、同図では、第2の表示画面23には、何も表示されていない。   FIG. 1 is an external view of an information display device 1 and an operation terminal 2 according to Embodiment 1 of the present invention. The operation terminal 2 is an example of “the image capturing apparatus including a second display unit that displays the captured image”. FIG. 1A shows an example of a cursor operation in which a pointing cursor image is displayed at designated coordinates on the first display screen 11 indicated by the operation terminal 2. At this time, for example, a web browser application is displayed on the first display screen 11, and the cursor image moves by moving the operation terminal 2. According to the position where the cursor image has moved, the user operates the user input unit 22 such as an operation button, thereby pressing a button displayed near the cursor or performing a data drag and drop operation. Can do. Also, in the figure, nothing is displayed on the second display screen 23.

図2は、第1の表示画面11に表示されたカーソル画像を操作端末2で撮影し、撮影されたカーソル画像を画像解析することにより、次のフレームで第1の表示画面11上に表示するカーソル画像の表示位置を決定する仕組みを説明する図である。図2(a)は、操作端末2が撮影したカーソル画像の画像データを情報表示装置1に送信し、情報表示装置1がカーソルの画像データを解析することにより、カーソル画像の次の表示位置を決定するフィードバックループの一例を示す図である。まず、情報表示装置1の起動時には、カーソル画像は第1の表示画面11の所定の位置に表示される。このカーソル画像を操作端末2が撮影し(1)、撮影によって得られた画像データを情報表示装置1の本体に送信する(2)。情報表示装置1の内部に備えられるユーザインタフェース装置10は操作端末2から受信装置した画像データを解析して、カーソル画像の次の表示位置を決定する(3)。このとき、決定されるカーソル画像の次の表示位置は、操作端末2の第2の表示画面23の中央にカーソル画像が表示されるように、第1の表示画面11上でのカーソル画像の表示位置が決定される。この決定に従って、第1の表示画面11上でカーソル画像の表示位置が移動される。操作端末2は、第1の表示画面11上で移動されて表示されたカーソル画像を撮影し(4)、撮影による画像データを情報表示装置1に送信する。なお、本発明は、実際には、操作端末2に第2の表示画面23がない場合でも適用可能である。しかし、操作端末2の第2の表示画面23でカーソル画像を表示している場合には、操作端末2は、第1の表示画面11で表示されたカーソル画像の移動に応じて、第2の表示画面23に表示されるカーソル画像の表示位置を移動する。図2(b)は、第1の表示画面11に表示されるカーソル画像と、情報表示装置1に対して斜め方向から撮影された場合のカーソル画像との関係を示す図である。図2(b)右に示すように、カーソル画像は、正面から見た場合には円形に見えるように表示される。これに対し、操作端末2が情報表示装置1に対して離れた位置から斜め方向にこのカーソル画像を撮影した場合には、図2(b)左に示すように、撮影により得られる画像データが表す形状は、元の画像よりも小さく、楕円形になる。情報表示装置1では、図2(b)左のように得られた画像データを解析して、図2(b)右のように表示されているカーソル画像が、図2(b)左のように変形して撮影される位置を解析する。   In FIG. 2, the cursor image displayed on the first display screen 11 is photographed by the operation terminal 2, and the photographed cursor image is image-analyzed to be displayed on the first display screen 11 in the next frame. It is a figure explaining the mechanism which determines the display position of a cursor image. In FIG. 2A, the image data of the cursor image taken by the operation terminal 2 is transmitted to the information display device 1, and the information display device 1 analyzes the cursor image data to determine the next display position of the cursor image. It is a figure which shows an example of the feedback loop to determine. First, when the information display device 1 is activated, the cursor image is displayed at a predetermined position on the first display screen 11. The cursor terminal is photographed by the operation terminal 2 (1), and image data obtained by the photographing is transmitted to the main body of the information display device 1 (2). The user interface device 10 provided in the information display device 1 analyzes the image data received from the operation terminal 2 and determines the next display position of the cursor image (3). At this time, the next display position of the determined cursor image is the display of the cursor image on the first display screen 11 so that the cursor image is displayed at the center of the second display screen 23 of the operation terminal 2. The position is determined. In accordance with this determination, the display position of the cursor image is moved on the first display screen 11. The operation terminal 2 captures a cursor image that is moved and displayed on the first display screen 11 (4), and transmits image data obtained by the capture to the information display device 1. Note that the present invention is actually applicable even when the operation terminal 2 does not have the second display screen 23. However, when the cursor image is displayed on the second display screen 23 of the operation terminal 2, the operation terminal 2 changes the second image according to the movement of the cursor image displayed on the first display screen 11. The display position of the cursor image displayed on the display screen 23 is moved. FIG. 2B is a diagram illustrating a relationship between a cursor image displayed on the first display screen 11 and a cursor image when the information display device 1 is photographed from an oblique direction. As shown on the right in FIG. 2B, the cursor image is displayed so as to look circular when viewed from the front. On the other hand, when the operation terminal 2 captures this cursor image in an oblique direction from a position away from the information display device 1, as shown on the left in FIG. The shape to be represented is smaller than the original image and becomes an ellipse. The information display device 1 analyzes the image data obtained as shown in the left of FIG. 2B, and the cursor image displayed as shown in the right of FIG. 2B is as shown in the left of FIG. 2B. Analyzing the position to be photographed after deformation.

図3は、図2(a)に示したカーソル画像の表示を行う場合の操作端末2及び情報表示装置1の動作を示すフローチャートである。同図に示すように、まず、情報表示装置1の本体で、第1の表示画面11に表示しようとする画像データが生成され、画像が表示される(S201)。操作端末2では、第1の表示画面11に表示された画像を撮影し(S202)、撮影した画像データを情報表示装置1に送信する(S203)。操作端末2から画像データを受信した情報表示装置1では、受信した画像データを解析して、操作端末2に撮像されたカーソルの画像ID及び位置座標を算出して、カーソル座標記憶部105に記憶させる。そして、現在、操作端末2が指し示している第1の表示画面11上の位置座標を、操作端末2の位置向きから推定して(S204)、次のフレームで第1の表示画面11に表示すべきカーソルの位置を決定し、決定した位置に次のフレームに対応するカーソルを表示する(S205)。情報表示装置1は、カーソルの画像IDを新たに表示されたカーソルに対応する画像IDに更新する(S206)。操作端末2は、ステップS202で撮影した第1の表示画面11の画像を、第2の表示画面23に表示する(S207)。   FIG. 3 is a flowchart showing operations of the operation terminal 2 and the information display device 1 when the cursor image shown in FIG. As shown in the figure, first, image data to be displayed on the first display screen 11 is generated and displayed on the main body of the information display device 1 (S201). The operation terminal 2 captures the image displayed on the first display screen 11 (S202), and transmits the captured image data to the information display device 1 (S203). The information display device 1 that has received the image data from the operation terminal 2 analyzes the received image data, calculates the image ID and position coordinates of the cursor imaged on the operation terminal 2, and stores them in the cursor coordinate storage unit 105. Let Then, the position coordinates on the first display screen 11 currently pointed to by the operation terminal 2 are estimated from the position orientation of the operation terminal 2 (S204), and are displayed on the first display screen 11 in the next frame. The position of the power cursor is determined, and the cursor corresponding to the next frame is displayed at the determined position (S205). The information display device 1 updates the image ID of the cursor to the image ID corresponding to the newly displayed cursor (S206). The operation terminal 2 displays the image of the first display screen 11 taken in step S202 on the second display screen 23 (S207).

図1(c)は、実行対象のアプリケーションが拡張現実型ユーザインタフェースの場合に、第2の表示画面23に表示されるビットマップイメージの一例を示す図である。図1(c)は、画像撮像部21で撮影したカメラ画像を背景として、カメラ画像に含まれている第1の表示画面11の内容に関連する3次元CG画像を、前記の背景に重畳して表示した図である。このCG画像は、拡張現実の表示技術(例えば、非特許文献2)を利用することで、3次元の物体が実際にディスプレイの前の空間に存在するかのように表示することができ、普通に第1の表示画面11に表示したCG画像と比較して、立体感や実スケール感などを直感的に理解することができる。   FIG. 1C is a diagram illustrating an example of a bitmap image displayed on the second display screen 23 when the application to be executed is an augmented reality user interface. FIG. 1C superimposes a three-dimensional CG image related to the content of the first display screen 11 included in the camera image on the background, with the camera image taken by the image pickup unit 21 as the background. FIG. This CG image can be displayed as if a three-dimensional object actually exists in the space in front of the display by using an augmented reality display technology (for example, Non-Patent Document 2). Compared with the CG image displayed on the first display screen 11, it is possible to intuitively understand a stereoscopic effect, a real scale feeling, and the like.

図4は、図1(c)に示した拡張現実型ユーザインタフェースのアプリケーションを実行する場合の操作端末2及び情報表示装置1の動作を示すフローチャートである。同図に示すように、まず、情報表示装置1の本体で、第1の表示画面11に表示しようとする画像データが生成され、画像320が表示される(S301)。操作端末2では、第1の表示画面11に表示された画像の一部(破線で囲んだ領域321)を撮影する(S302)。撮影された領域321の画像は、第2の表示画面23では、表示画像322のように表示される。操作端末2は、撮影した画像データを情報表示装置1に送信する(S303)。ここで、ユーザが操作端末2のユーザ入力部22などを操作することにより、操作端末2は、カーソル画像が表示されている周辺のボタンなどをクリックする意味の指示である入力データを受け付け、受け付けた入力データを情報表示装置1に送信する(S304)。操作端末2から画像データと入力データとを受信した情報表示装置1では、受信した画像データから操作端末2の位置を解析して(S305)、第2の表示画面23で表示させるための操作端末2用の背景画像323と、入力データで指示される拡張現実型ユーザインタフェースを用いて第2の表示画面23で表示させるための3次元画像(MR)324とを生成して合成する(S306)。情報表示装置1は、合成した操作端末2用のMR合成画像を操作端末2に送信する(S307)。操作端末2にMR合成画像を送信した後、情報表示装置1は、次のフレームで第1の表示画面11に表示すべき画像を背景画像として生成し、さらに、生成された背景画像上で表示されるべきカーソルの位置を決定する。そして、背景画像上の決定された位置に、次のフレームに対応するカーソル画像を合成して表示する(S308)。情報表示装置1は、カーソルの画像IDを新たに表示されたカーソルに対応する画像IDに更新する(S309)。ステップS307で、情報表示装置1からMR合成画像を受信すると、操作端末2は、ステップS307で受信したMRが背景画像に重畳して合成された画像325を、第2の表示画面23に表示する(S310)。   FIG. 4 is a flowchart showing operations of the operation terminal 2 and the information display device 1 when executing the application of the augmented reality user interface shown in FIG. As shown in the figure, first, image data to be displayed on the first display screen 11 is generated in the main body of the information display device 1, and an image 320 is displayed (S301). The operation terminal 2 captures a part of the image displayed on the first display screen 11 (region 321 surrounded by a broken line) (S302). The captured image of the area 321 is displayed as a display image 322 on the second display screen 23. The operation terminal 2 transmits the captured image data to the information display device 1 (S303). Here, when the user operates the user input unit 22 or the like of the operation terminal 2, the operation terminal 2 accepts and accepts input data that is an instruction meaning to click a button or the like around the cursor image displayed. The input data is transmitted to the information display device 1 (S304). The information display device 1 that has received the image data and the input data from the operation terminal 2 analyzes the position of the operation terminal 2 from the received image data (S305) and displays it on the second display screen 23. A background image 323 for 2 and a three-dimensional image (MR) 324 to be displayed on the second display screen 23 using an augmented reality user interface specified by input data are generated and synthesized (S306). . The information display device 1 transmits the combined MR composite image for the operation terminal 2 to the operation terminal 2 (S307). After transmitting the MR composite image to the operation terminal 2, the information display device 1 generates an image to be displayed on the first display screen 11 as a background image in the next frame, and further displays it on the generated background image. Determine the position of the cursor to be done. Then, the cursor image corresponding to the next frame is synthesized and displayed at the determined position on the background image (S308). The information display device 1 updates the image ID of the cursor to the image ID corresponding to the newly displayed cursor (S309). When the MR composite image is received from the information display device 1 in step S307, the operation terminal 2 displays the image 325 in which the MR received in step S307 is superimposed on the background image and displayed on the second display screen 23. (S310).

以下、情報表示装置1と操作端末2の構成を詳細に説明する。   Hereinafter, the configuration of the information display device 1 and the operation terminal 2 will be described in detail.

(情報表示装置1の外観)
図1(a)において、情報表示装置1は、第1の表示画面11を有する。第1の表示画面11は、具体的には、デジタルテレビの表示画面(ディスプレイ)でよい。デジタルテレビは、具体的には、プラズマディスプレイや、液晶ディスプレイ、有機ELディスプレイでよい。また、情報表示装置1は、パーソナルコンピュータでもよい。この場合、ディスプレイとコンピュータが、一体型のものでもよいし、分離されてケーブルや無線等の通信手段で接続されたものでもよい。本発明で対象とする情報表示装置1は、少なくとも一つの表示画面が必要であるが、その他のハードウェア構成は汎用的な構成でも適用可能である。
(Appearance of information display device 1)
In FIG. 1A, the information display device 1 has a first display screen 11. Specifically, the first display screen 11 may be a display screen (display) of a digital television. Specifically, the digital television may be a plasma display, a liquid crystal display, or an organic EL display. The information display device 1 may be a personal computer. In this case, the display and the computer may be integrated, or may be separated and connected by a communication means such as a cable or wireless. The information display device 1 targeted by the present invention requires at least one display screen, but other hardware configurations can be applied to general-purpose configurations.

(操作端末2の外観)
図1(a)において、操作端末2は、画像撮像部21とユーザ入力部22と第2の表示画面23を備えたリモートコントローラであり、情報表示装置1とは、IEEE801.11nなどの無線通信手段やLANケーブルなどの有線通信手段を用いて、情報を送受信することができる。以下、詳細に説明する。
(External appearance of operation terminal 2)
In FIG. 1A, an operation terminal 2 is a remote controller including an image capturing unit 21, a user input unit 22, and a second display screen 23. The information display device 1 communicates with the information display device 1 by wireless communication such as IEEE801.11n. Information can be transmitted and received using a wired communication means such as a means or a LAN cable. Details will be described below.

画像撮像部21は、カラー画像データを撮影可能なカメラであり、具体的には、CCDやCMOSなどのイメージセンサに、カラー画像を取得するためのフィルタと、レンズを取り付けたものなどでよい。なお、本実施の形態では、カラー画像の画像情報を用いたが、白黒画像を用いても良い。本発明で利用可能な画像撮像部21は、第1の表示画面11であるディスプレイに表示されている画像を撮影可能なイメージセンサであれば、任意のフォーマットのものに対応できる。   The image capturing unit 21 is a camera capable of capturing color image data. Specifically, the image capturing unit 21 may be an image sensor such as a CCD or a CMOS provided with a filter and a lens for acquiring a color image. In this embodiment, image information of a color image is used, but a black and white image may be used. The image pickup unit 21 that can be used in the present invention can correspond to any format as long as it is an image sensor that can take an image displayed on the display that is the first display screen 11.

ユーザ入力部22は、ユーザの指示を入力するための入力手段である。具体的には、2次元的な座標を入力することが可能な、タッチパッド、ジョイスティックなどや、ON・OFFの入力が可能な、ボタンなどを組み合わせたものでよい。また、第2の表示画面23と一体化したタッチパネル装置を含んでいてもよい。ユーザ入力部22で入力されたものは、操作端末2でのイベント処理に利用するだけでなく、データ送信部24、データ受信部13を経由して、情報表示装置1のアプリケーション処理部14へも伝えられ、アプリケーションの選択操作などのイベント入力として利用される。   The user input unit 22 is input means for inputting user instructions. Specifically, a touch pad, a joystick, or the like that can input two-dimensional coordinates, or a button that can be turned ON / OFF can be combined. Further, a touch panel device integrated with the second display screen 23 may be included. The input from the user input unit 22 is not only used for event processing at the operation terminal 2 but also to the application processing unit 14 of the information display device 1 via the data transmission unit 24 and the data reception unit 13. It is transmitted and used as an event input such as an application selection operation.

第2の表示画面23は、操作端末2に取り付けられた表示画面であり、ユーザインタフェース装置10の第2画像生成部108が生成したGUI(グラフィカルユーザインタフェース)画像を表示することができる。特に、アプリケーションが、図1(c)のような、拡張現実型ユーザインタフェースの場合には、操作端末2の画像撮像部21で撮影したカメラ画像上に、関連する情報やCGを重畳して表示する。これにより、ユーザにとっては、あたかも、操作端末2の第2の表示画面23を通して、ディスプレイ(第1の表示画面11)を眺めるような感覚で、ディスプレイの表示内容に関連する情報やCGを重ね合わせて見ることが可能となる。なお、これらの技術は、ビデオシースルー型拡張現実技術と呼ばれる。   The second display screen 23 is a display screen attached to the operation terminal 2 and can display a GUI (Graphical User Interface) image generated by the second image generation unit 108 of the user interface device 10. In particular, when the application is an augmented reality user interface as shown in FIG. 1C, related information and CG are superimposed and displayed on the camera image captured by the image capturing unit 21 of the operation terminal 2. To do. As a result, the user can superimpose information and CG related to the display content on the display as if looking at the display (first display screen 11) through the second display screen 23 of the operation terminal 2. Can be seen. These technologies are called video see-through augmented reality technologies.

(情報表示装置1及び操作端末2の構成)
図5は、本発明の実施の形態1における、情報表示装置1と操作端末2の要部の構成の一例を示すブロック図である。情報表示装置1は、ユーザインタフェース装置10、第1の表示画面11、データ送信部12、データ受信部13、アプリケーション処理部14を有する。図1の外観図に含まれる構成は、図1の番号と同じ番号を振ってあり、これらの構成は同一のものであるため、説明を省略する。
(Configuration of information display device 1 and operation terminal 2)
FIG. 5 is a block diagram illustrating an example of a configuration of main parts of the information display device 1 and the operation terminal 2 according to Embodiment 1 of the present invention. The information display device 1 includes a user interface device 10, a first display screen 11, a data transmission unit 12, a data reception unit 13, and an application processing unit 14. The configurations included in the external view of FIG. 1 are numbered the same as the numbers in FIG. 1, and since these configurations are the same, description thereof is omitted.

操作端末2は、画像撮像部21、ユーザ入力部22、第2の表示画面23、データ送信部24、データ受信部25、画面表示部26を備える。画像撮像部21、ユーザ入力部22、第2の表示画面23に関しては、図1の外観図に対応してすでに説明しているので、同じ参照番号を振り、ここでの説明は省略する。   The operation terminal 2 includes an image capturing unit 21, a user input unit 22, a second display screen 23, a data transmission unit 24, a data reception unit 25, and a screen display unit 26. Since the image capturing unit 21, the user input unit 22, and the second display screen 23 have already been described with reference to the external view of FIG. 1, the same reference numerals are assigned and description thereof is omitted here.

データ送信部24とデータ受信部25は、データ送信部12と、データ受信部13と、同様で、具体的には、IEEE801.11nなどの無線の通信手段やLANケーブルなどの有線の通信手段の処理部でよい。   The data transmission unit 24 and the data reception unit 25 are the same as the data transmission unit 12 and the data reception unit 13, and specifically, wireless communication means such as IEEE801.11n or wired communication means such as a LAN cable. A processing unit may be used.

画面表示部26は、データ受信部25を経由して送られてくる、画面のビットマップデータを、第2の表示画面23上に表示するための処理部である。ただし、カーソル表示部107と同様に、Microsoft社製WindowsVista(登録商標)などのウィンドウシステムを操作端末2が利用している場合は、実際に画面を描画するのではなく、ビットマップデータを画面上に描画してくれるようにシステムに要求するまでの処理を行なう。   The screen display unit 26 is a processing unit for displaying the bitmap data of the screen transmitted via the data receiving unit 25 on the second display screen 23. However, as with the cursor display unit 107, when the operation terminal 2 uses a window system such as Microsoft Windows Vista (registered trademark), the bitmap data is not drawn on the screen but actually drawn. Processes until the system is requested to draw.

以下、ユーザインタフェース装置10について、詳細に説明する。   Hereinafter, the user interface device 10 will be described in detail.

ユーザインタフェース装置10は、カーソル認識部101、位置向き推定部102、第1画像生成部103、画像ID管理部104、カーソル座標記憶部105、カーソルデータ記憶部106、カーソル表示部107及び第2画像生成部108を備える。   The user interface device 10 includes a cursor recognition unit 101, a position / orientation estimation unit 102, a first image generation unit 103, an image ID management unit 104, a cursor coordinate storage unit 105, a cursor data storage unit 106, a cursor display unit 107, and a second image. A generation unit 108 is provided.

カーソル認識部101は、「前記撮像画像に含まれる前記カーソル画像を画像認識し、前記画像ID記憶手段の記憶内容に基づいて、撮像された前記カーソル画像の画像IDを、認識された前記カーソル画像から特定するカーソル認識手段」の一例であり、画像撮像部21で撮影したカラー画像データを、データ受信部13を介して受け取り、画像中に含まれるカーソルの領域情報を取得する。入力されるカラー画像データは、具体的には、RGB形式のデータ形式でよい。RGB形式は、R(赤)、G(緑)、B(青)の三つの成分で色を表現したものである。まず、入力されたカラー画像データは、HSV形式に変換する。HSV形式とは、H(色相)、S(彩度)、V(明度)の三つの成分で表現した色であり、RGB形式からHSVへの変換式の一例を図6に示す。ただし、図6において、R、G、Bはそれぞれ、0〜1.0までの数値であり、Hは0〜360.0、SとVは、0〜1.0とする。   The cursor recognition unit 101 recognizes the image of the cursor image included in the captured image and recognizes the image ID of the captured cursor image based on the storage content of the image ID storage unit. The color image data captured by the image capturing unit 21 is received via the data receiving unit 13 and the cursor area information included in the image is acquired. Specifically, the input color image data may be in the RGB format. The RGB format represents a color with three components of R (red), G (green), and B (blue). First, the input color image data is converted into the HSV format. The HSV format is a color expressed by three components of H (hue), S (saturation), and V (lightness), and an example of a conversion formula from RGB format to HSV is shown in FIG. In FIG. 6, R, G, and B are values from 0 to 1.0, H is from 0 to 360.0, and S and V are from 0 to 1.0.

次に、カーソル認識部101では、カーソルの領域をラベリング処理により切り出す(抽出する)。ここでのラベリング処理とは、特定の色の領域をグルーピングして、識別子となる番号を振っていく処理である。具体的には、二値化した画像をピクセル単位に走査し、近接する画素の連結関係を求めて、ラベルを振っていけばよい。例えば、図7(a)に示すカーソル画像が、図7(b)の緑色、図7(c)の黄緑色、及び図7(d)の赤色の3色で構成されているとする。これに対し、ラベリング処理で切り出す領域を、図7(b)の緑色領域と、図7(c)の黄緑色領域の2つの領域とする。このとき、ラベリング処理における二値化処理は、緑色領域と黄緑色領域の2つを含む領域を1とし、それ以外の領域を0とする画像を生成すれば良い。この緑色領域と黄緑色領域の判別方法としては、前記HSV形式の色データに対して、「H(色相)が70以上、135以下」などの条件式で判別すればよい。なお、HSV形式では、Hが120のときが緑色、Hが85のときが黄緑色を示すが、カメラで撮影した画像は照明や大気などの影響で、ディスプレイに表示している色と全く同じ色が取得できるとは限らない。このため、H(色相)の値が一定の範囲内のときに、所定の色であるとして判別している。このように、H(色相)を使って判別することによって、部屋の明るさの変化などによる悪影響を受け難い認識結果を得ることができる。また、緑色と黄緑色の2色は、人間の見た目には違いが分かりにくいが、カメラで撮影した画像のH(色相)成分を比較することで、定量的に容易に識別できるという特徴を持つ。   Next, the cursor recognizing unit 101 cuts out (extracts) the cursor area by a labeling process. Here, the labeling process is a process of grouping specific color areas and assigning numbers as identifiers. Specifically, a binarized image may be scanned in units of pixels, a connection relationship between adjacent pixels may be obtained, and labels may be assigned. For example, assume that the cursor image shown in FIG. 7A is composed of three colors: green in FIG. 7B, yellow-green in FIG. 7C, and red in FIG. 7D. On the other hand, the areas cut out by the labeling process are two areas, a green area in FIG. 7B and a yellow-green area in FIG. At this time, the binarization process in the labeling process may generate an image in which the area including two of the green area and the yellow-green area is set to 1 and the other areas are set to 0. As a method for discriminating between the green area and the yellow-green area, the HSV format color data may be discriminated by a conditional expression such as “H (hue) is 70 or more and 135 or less”. In the HSV format, when H is 120, the color is green, and when H is 85, the color is yellow-green. However, the image captured by the camera is exactly the same as the color displayed on the display due to the influence of illumination and the atmosphere. The color cannot always be acquired. For this reason, when the value of H (hue) is within a certain range, it is determined that the color is a predetermined color. In this way, by using H (hue) for discrimination, it is possible to obtain a recognition result that is less likely to be adversely affected by changes in room brightness. The two colors, green and yellow-green, are difficult to distinguish by human eyes, but have the feature that they can be easily identified quantitatively by comparing the H (hue) components of images taken with a camera. .

具体的には、図8(a)のようなカーソルを含むカラー画像を撮影した場合、図8(b)のような、4つのラベルの領域が取得できる。さらに、図9(a)のような、各ラベルの位置(代表座標)と大きさ(面積)のデータを取得することができる。代表座標は、具体的には、領域の中心座標を用いても良いし、領域の輪郭線上の特徴点を利用しても良い。ここで、図8(a)のカーソル画像は、図8(b)に示すような同じ面積の3つの三角形(ラベル0、ラベル1、ラベル2)と、それよりも面積が一回り大きい三角形(ベース三角形ラベル3)の合計4つの三角形によって構成されている。そこで、ラベリング結果の中から、カーソル画像の候補となる4つの領域を選択し、その4つの領域の中から、面積が最大となる領域を選択することで、カーソルに含まれるベース三角形を決定できる。その後、ラベル0〜ラベル3の4領域の位置関係から、時計回りに、ラベル3→ラベル1→ラベル0→ラベル2という順番でラベルを特定し、それぞれの代表座標を取得することで、四角形を構成する4頂点データを取得することができる。   Specifically, when a color image including a cursor as shown in FIG. 8A is taken, four label areas as shown in FIG. 8B can be acquired. Further, as shown in FIG. 9A, the position (representative coordinates) and size (area) data of each label can be acquired. Specifically, the center coordinates of the area may be used as the representative coordinates, or feature points on the outline of the area may be used. Here, the cursor image in FIG. 8A includes three triangles (label 0, label 1, label 2) having the same area as shown in FIG. The base triangle label 3) is composed of a total of four triangles. Therefore, by selecting four regions that are candidates for the cursor image from the labeling results and selecting a region having the maximum area from the four regions, the base triangle included in the cursor can be determined. . After that, by identifying the labels in the order of label 3 → label 1 → label 0 → label 2 from the positional relationship of the four areas from label 0 to label 3, and obtaining the representative coordinates of each, It is possible to acquire the four-vertex data that constitutes it.

さらに、図9(a)のラベリング結果から代表色のHSV値を比較し、図10のようなカラー値と画像IDの対応情報を元に、画像IDを判定する。なお、図10の対応関係のデータは、カーソルデータ記憶部106に保存しておけばよい。以上の処理により、カーソルを構成する4頂点データと、画像IDを取得し、図9(b)に示すカーソルデータを生成できる。ただし、この段階で生成するカーソルデータは、カーソルの候補データであり、誤ったカーソルデータも含めて、複数のカーソルデータが生成される場合もある。この場合、位置向き推定部102で、カーソルの位置向きを推定する段階で、複数の候補の中から、正しいカーソルデータを選択すれば良い。   Further, the HSV values of the representative colors are compared from the labeling result of FIG. 9A, and the image ID is determined based on the correspondence information between the color value and the image ID as shown in FIG. The correspondence data in FIG. 10 may be stored in the cursor data storage unit 106. Through the above processing, the four vertex data constituting the cursor and the image ID can be acquired, and the cursor data shown in FIG. 9B can be generated. However, the cursor data generated at this stage is cursor candidate data, and a plurality of cursor data may be generated including erroneous cursor data. In this case, the correct cursor data may be selected from a plurality of candidates when the position / direction estimation unit 102 estimates the position / direction of the cursor.

なお、周期的に変化する画像IDを判別する方法は、上記で記述した方法に限定されるものではない。例えば、図11(a)、図11(b)、図11(c)に示す、矢印型カーソル表示の場合は、矢印を構成する特定領域の色相値の違いで、3つのカーソル画像から異なる画像IDを取得することができる。この場合、カーソルの輪郭線を直線近似し、図12のような、特徴点を抽出し、その特徴点の座標に基づき、決められた領域の色値を取得することで実現できる。また、同じ矢印型のカーソルの場合でも、図11(d)に示すように、カーソルの形状とは別に、バーコード状のIDを付加しても良い。さらに、図11(e)のように、カーソルの軌跡表示部分の形状をコード化してIDを表現しても良い。このように、本発明のカーソル表示は、色や形状の情報を手がかりとして、少なくとも数種類のIDを識別可能であれば、どのようなデザインでもよい。本発明は、カーソルのデザインに限定されるものではない。   Note that the method for discriminating periodically changing image IDs is not limited to the method described above. For example, in the case of the arrow-type cursor display shown in FIGS. 11A, 11B, and 11C, an image that differs from three cursor images due to a difference in hue value of a specific area constituting the arrow. ID can be acquired. In this case, it can be realized by linearly approximating the outline of the cursor, extracting a feature point as shown in FIG. 12, and acquiring a color value of a determined area based on the coordinates of the feature point. Even in the case of the same arrow-shaped cursor, as shown in FIG. 11D, a barcode-like ID may be added separately from the cursor shape. Furthermore, as shown in FIG. 11 (e), the ID may be expressed by coding the shape of the cursor locus display portion. As described above, the cursor display according to the present invention may have any design as long as at least several types of IDs can be identified using color and shape information as clues. The present invention is not limited to cursor design.

図13(a)は、フレームごとのカーソルの位置の変化を示す図である。図13(b)は、図13(a)に示した各フレームに対して、順次、画像IDをインクリメントして割り当てる一例を示す図である。図13(c)は、図13(a)に示した各フレームに対して、カーソルが移動しないフレームには、同じ画像IDを割り当てる一例を示す図である。例えば、図13(a)に示すように、フレーム番号23とフレーム番号24とでは、カーソルが移動していない。上記の例では、図13(b)に示すように、フレームごとに単純にカーソルの画像IDをインクリメントして割り当てたが、図13(c)のように、カーソルが移動しない場合には、画像IDをインクリメントしないで同じ画像IDを用いるとしてもよい。図13(c)のように画像IDを割り当てる場合には、フレーム間でカーソルが移動したか否かを判断する必要があるが、フレームレートが高い場合であっても、カーソルの動きが少ないときには画像IDのパターンを増やさなくても対応できるという効果がある。   FIG. 13A is a diagram illustrating a change in the position of the cursor for each frame. FIG. 13B is a diagram illustrating an example in which image IDs are sequentially incremented and assigned to the frames illustrated in FIG. FIG. 13C is a diagram illustrating an example in which the same image ID is assigned to a frame in which the cursor does not move with respect to each frame illustrated in FIG. For example, as shown in FIG. 13A, the cursor is not moved between frame number 23 and frame number 24. In the above example, as shown in FIG. 13B, the image ID of the cursor is simply incremented and assigned for each frame. However, if the cursor does not move as shown in FIG. The same image ID may be used without incrementing the ID. When assigning an image ID as shown in FIG. 13C, it is necessary to determine whether or not the cursor has moved between frames. However, even when the frame rate is high, the cursor moves little. There is an effect that it is possible to cope without increasing the pattern of the image ID.

次に、位置向き推定部102は、「前記カーソル認識手段による前記認識結果と、前記カーソル座標記憶手段が記憶している前記位置座標とから、前記画像撮像装置が撮像した前記表示画像と、前記表示画像上の前記画像撮像装置が現在指し示している位置を示す指示座標とを推定する位置推定手段」の一例であり、カーソルを画像認識した結果から、カメラを中心とする座標系におけるディスプレイの位置向きを推定し、さらに、操作端末が示すディスプレイ上での指示座標と算出するものである。以下、詳細に説明する。   Next, the position / orientation estimation unit 102 reads: “From the recognition result by the cursor recognition unit and the position coordinates stored in the cursor coordinate storage unit, the display image captured by the image capturing apparatus; The position of the display in the coordinate system centered on the camera based on the result of recognizing the cursor from the result of image recognition of the cursor. The direction is estimated, and further, the designated coordinates on the display indicated by the operation terminal are calculated. This will be described in detail below.

まず、カーソル認識部101から、図9(b)に示すカーソルを構成する4頂点の座標値と、カーソルの画像IDを取得する。なお、この4頂点は、4頂点以上の数であっても良い。例えば、カーソル画像が、図11に示す矢印型の場合は、カーソルの輪郭線を直線に近似することによって、図12に示す7頂点を取得することが可能である。座標値が既知の四角形(あるいは、4頂点以上の頂点データ)から、3次元の位置向きを示す4×4の座標変換マトリックスを生成する方法に関しては、具体的には、非特許文献2で説明されている方法を利用すれば良い。この方法は、拡張現実の研究分野では一般的な計算方法であり、最小2乗法の近似計算を利用して、画像マーカが示す座標変換マトリックスを決定することができる。ただし、最小2乗法の近似誤差は0になるとは限らないため、近似誤差がある閾値以上のものは、位置向きの推定が失敗したものとして扱えば良い。また、複数のカーソルの候補がある場合、近似誤差が最小のデータを、カーソルデータとして選択しても良い。以上のような計算により、カメラを原点とする座標系における、カーソル画像の位置向きを示す4×4の座標変換マトリックスM_cを生成できる。   First, the coordinate values of the four vertices constituting the cursor shown in FIG. 9B and the image ID of the cursor are acquired from the cursor recognition unit 101. Note that the number of the four vertices may be four or more. For example, if the cursor image has an arrow shape shown in FIG. 11, it is possible to obtain the seven vertices shown in FIG. 12 by approximating the outline of the cursor to a straight line. A method for generating a 4 × 4 coordinate transformation matrix indicating a three-dimensional position and orientation from a quadrilateral with known coordinate values (or vertex data of four or more vertices) is specifically described in Non-Patent Document 2. You can use the method that is used. This method is a general calculation method in the field of augmented reality research, and the coordinate transformation matrix indicated by the image marker can be determined using the approximate calculation of the least square method. However, since the approximation error of the least squares method is not always 0, any approximation error that is equal to or greater than a threshold value may be treated as a position direction estimation failure. In addition, when there are a plurality of cursor candidates, data having a minimum approximation error may be selected as the cursor data. With the above calculation, a 4 × 4 coordinate transformation matrix M_c indicating the position and orientation of the cursor image in the coordinate system with the camera as the origin can be generated.

次に、カーソルの画像IDを元に、カーソル座標記憶部105から、ディスプレイ上でのカーソルの座標値P1(P1x,P1y)を取得する。この座標値を、ディスプレイ中心からの相対的な位置に変換することで、カーソルを原点とする座標系を、ディスプレイの中心を原点とする座標系に変換するための4×4の座標変換マトリックスM_dを生成できる。この結果、2つのマトリックスM_cとM_dを掛け合わせることで、カメラ画像の中心を原点とする、ディスプレイの位置向きを示す4×4の座標変換マトリックスM_cdを生成できる。また、ディスプレイの原点(すなわち、M_cdの平行移動成分T(Tx,Ty,Tz))を通り、M_cdのZ軸の方向成分のベクトルRz(Rz_x,Rz_y,Rz_z)を法線とする平面と、カメラ画像の中心の点を示すx=y=0という直線の交点から、カーソルの指示座標P2(P2x,P2y)は算出できる。   Next, the coordinate value P1 (P1x, P1y) of the cursor on the display is acquired from the cursor coordinate storage unit 105 based on the cursor image ID. By converting this coordinate value into a relative position from the center of the display, a 4 × 4 coordinate conversion matrix M_d for converting a coordinate system having the cursor as the origin into a coordinate system having the center of the display as the origin. Can be generated. As a result, by multiplying the two matrices M_c and M_d, it is possible to generate a 4 × 4 coordinate transformation matrix M_cd that indicates the position and orientation of the display with the center of the camera image as the origin. A plane that passes through the origin of the display (that is, the parallel movement component T (Tx, Ty, Tz) of M_cd) and is normal to the vector Rz (Rz_x, Rz_y, Rz_z) of the Z-axis direction component of M_cd; From the intersection of the straight line x = y = 0 indicating the center point of the camera image, the cursor pointing coordinates P2 (P2x, P2y) can be calculated.

最後に、ディスプレイの位置向きを示す4×4の座標変換マトリックスM_cdの平行移動成分T(Tx,Ty,Tz)から、ディスプレイと操作端末との距離Dを生成する。具体的には、D=√(Tx*Tx+Ty*Ty+Tz*Tz)でよい。ただし、√(A)とは、Aの平方根を表す。なお、この距離は、絶対値は意味がないため、距離に比例して大きくなる値であればどのような式を用いてもよい。   Finally, a distance D between the display and the operation terminal is generated from the parallel movement component T (Tx, Ty, Tz) of the 4 × 4 coordinate transformation matrix M_cd indicating the position and orientation of the display. Specifically, D = √ (Tx * Tx + Ty * Ty + Tz * Tz) may be used. However, √ (A) represents the square root of A. In addition, since the absolute value has no meaning for this distance, any equation may be used as long as the value increases in proportion to the distance.

以上のような計算により、位置向き推定部102で、ディスプレイの位置向きを示す4×4の座標変換マトリックスMcdと、ディスプレイ上の指示座標(操作端末2が示すポインティングの座標)P2(P2x,P2y)、ディスプレイと操作端末の距離D、を決定することができる。   As a result of the above calculation, the position / orientation estimation unit 102 uses the 4 × 4 coordinate transformation matrix Mcd indicating the position / direction of the display and the designated coordinates (pointing coordinates indicated by the operation terminal 2) P2 (P2x, P2y). ), The distance D between the display and the operation terminal can be determined.

第1画像生成部103は、「表示画面に表示させる表示画像を生成する画像生成手段」、「推定した前記位置座標から、前記画像撮像装置の相対的位置を表す位置向き情報に基づいて、前記カメラで撮影した画像とCGで生成した画像とを合成して、前記第2の表示画面に表示すべき拡張現実画像を生成する前記画像生成手段」、「推定した前記位置座標から、前記画像撮像装置の相対的位置を表す位置向き情報に基づいて、前記第2の表示画面に表示されている表示画像の一部分を切り出し、切り出された前記一部の表示画像を拡大して生成する前記画像生成手段」または「ウェブブラウザ上に表示する画像を生成する前記画像生成手段」の一例であり、アプリケーション処理部14に応じて、第1の表示画面11に表示する画面を描画するものである。例えば、対象となるアプリケーションがウェブブラウザの場合は、図1(a)の第1の表示画面11に表示されているような画面を生成する。このとき、ユーザ入力部22からのユーザ入力だけでなく、位置向き推定部102で生成したディスプレイ上での指示座標P2等も入力インタフェースとして利用することで、直感的な入力手段でアプリケーションを制御し、この結果生成した画面を、第1の表示画面11に表示することができる。   The first image generation unit 103 is based on “image generation means for generating a display image to be displayed on the display screen” and “position / orientation information indicating the relative position of the image capturing device from the estimated position coordinates”. The image generation means for generating an augmented reality image to be displayed on the second display screen by synthesizing an image captured by the camera and an image generated by CG, and the image capturing from the estimated position coordinates The image generation for generating a part of the display image displayed on the second display screen based on the position / orientation information indicating the relative position of the device and enlarging and generating the part of the display image that has been cut out Means ”or“ the image generation means for generating an image to be displayed on the web browser ”, and renders a screen to be displayed on the first display screen 11 in accordance with the application processing unit 14. It is intended. For example, when the target application is a web browser, a screen as displayed on the first display screen 11 in FIG. At this time, not only the user input from the user input unit 22 but also the designated coordinates P2 on the display generated by the position / orientation estimation unit 102 are used as an input interface, thereby controlling the application with an intuitive input means. The screen generated as a result can be displayed on the first display screen 11.

画像ID管理部104は、「複数種類の前記カーソル画像と、それぞれの前記カーソル画像が表示される表示画像を特定するための画像IDとを予め対応付けて記憶する画像ID記憶手段」の一例であり、次のフレームで表示するカーソル画像のIDを管理するものである。本発明では、ディスプレイとカメラの同期処理を行なわないため、カメラで認識したカーソル画像が、何フレーム前に表示要求を出したものであるのか判別できない。このため、画像IDは、過去に表示したカーソルの位置座標を一定フレーム数保存するためのものである。ここでの一定フレーム数は、カーソル表示部107が、カーソルの表示要求を出してから、第1の表示画面11上に表示され、さらに、画像撮像部21で撮影されたカメラ画像をユーザインタフェース装置10が認識するまでにかかる最大の経過時間によって決定すれば良い。例えば、カーソルの表示要求から、ディスプレイ上に表示されるまでの最大時間が0.1秒とし、ディスプレイに表示された画像を画像撮像部21が撮影してユーザインタフェース装置10が画像認識するまでにかかる最大時間を0.1秒とすると、0.2秒間が最大時間となる。このとき、1秒間に最大30フレームの画面更新が行なわれるとすると、6フレーム前のカーソル座標まで保存しておけばよい。この場合、画像IDは0〜5の6通りの整数で表現することができ、画像ID管理部104では、0、1、2、3、4、5、0、1、2、3、4、5、0、1、・・・のように、周期的にIDをインクリメントすることで、次のフレームに表示するカーソルのIDを決定する。   The image ID management unit 104 is an example of “an image ID storage unit that stores in advance a plurality of types of cursor images and image IDs for specifying display images on which the cursor images are displayed” in association with each other. Yes, it manages the ID of the cursor image to be displayed in the next frame. In the present invention, since the display and the camera are not synchronized, it is impossible to determine how many frames before the cursor image recognized by the camera is the display request. For this reason, the image ID is for storing a predetermined number of frames of the position coordinates of the cursor displayed in the past. Here, the fixed number of frames is displayed on the first display screen 11 after the cursor display unit 107 issues a cursor display request, and further the camera image captured by the image capturing unit 21 is displayed on the user interface device. What is necessary is just to determine with the maximum elapsed time taken until 10 recognizes. For example, the maximum time from the cursor display request until it is displayed on the display is 0.1 second, and the image displayed on the display is captured by the image capturing unit 21 and the user interface device 10 recognizes the image. If the maximum time is 0.1 seconds, 0.2 seconds is the maximum time. At this time, if the screen is updated up to 30 frames per second, the cursor coordinates up to 6 frames before may be stored. In this case, the image ID can be expressed by six integers of 0 to 5, and the image ID management unit 104 has 0, 1, 2, 3, 4, 5, 0, 1, 2, 3, 4, The ID of the cursor to be displayed in the next frame is determined by periodically incrementing the ID, such as 5, 0, 1,.

カーソル座標記憶部105は、「撮像された前記カーソル画像の前記表示画面上の位置座標を算出し、算出された前記位置座標を、特定された前記画像IDと対応付けて記憶するカーソル座標記憶手段」の一例であり、カーソル表示部107で表示したカーソルのディスプレイ上での座標値と大きさを、画像ID管理部104で管理しているカーソルの画像IDに対応付けて保存するものである。また、カーソル表示部107は「前記推定した位置関係に基づいて、前記画像生成手段によって生成される表示画面上に表示する前記カーソル画像の大きさを変化させる前記カーソル表示手段」の一例である。座標値は、例えば、第1の表示装置11が1920x1080の解像度のディスプレイの場合、ディスプレイの左上の画素を(0,0)として、右下を(1919,1079)とする二次元座標として表現できる。カーソルの大きさとは、表示されるスケーリングを画素数に対応付けて表現したものでよい。具体的には、保存されるカーソル座標は、図14(a)のように、画像IDに対応したデータとして保存すればよい。   The cursor coordinate storage unit 105 calculates “position coordinates on the display screen of the captured cursor image, and stores the calculated position coordinates in association with the specified image ID. The coordinate value and the size of the cursor displayed on the cursor display unit 107 are stored in association with the image ID of the cursor managed by the image ID management unit 104. The cursor display unit 107 is an example of “the cursor display unit that changes the size of the cursor image displayed on the display screen generated by the image generation unit based on the estimated positional relationship”. For example, when the first display device 11 is a display having a resolution of 1920 × 1080, the coordinate value can be expressed as a two-dimensional coordinate in which the upper left pixel of the display is (0, 0) and the lower right is (1919, 1079). . The size of the cursor may be a representation of the displayed scaling associated with the number of pixels. Specifically, the saved cursor coordinates may be saved as data corresponding to the image ID as shown in FIG.

カーソルデータ記憶部106は、画像IDと対応付けてカーソルの画像データを保存するための記憶手段であり、具体的には、図10のように、画像IDと対応したカーソル画像のビットマップデータそのものでもよいし、画像IDからビットマップデータを生成するためのパラメータのテーブルでもよい。   The cursor data storage unit 106 is a storage unit for storing the image data of the cursor in association with the image ID. Specifically, as shown in FIG. 10, the bitmap data itself of the cursor image corresponding to the image ID is stored. Alternatively, it may be a parameter table for generating bitmap data from an image ID.

カーソル表示部107は、「所定の時間周期で繰り返し変化する複数種類の1つのカーソル画像を前記画像生成手段によって前記表示画像上に合成させるカーソル表示手段」で、「新たな画像IDに対応する新たなカーソル画像を前記画像ID記憶手段から読み出し、前記新たなカーソル画像が、前記位置推定手段によって推定された前記指示座標に表示されるように、前記画像生成手段に前記カーソル画像を合成させる前記カーソル表示手段」または「前記位置推定手段によって推定された前記フレームの前記位置座標に基づいて、新たなカーソル画像が、前記第2の表示手段に表示される新たな表示画像の中央に位置するように新たな表示画像を生成し、前記第2の表示手段に表示させる前記カーソル表示手段」の一例である。また、カーソル表示部107は「前記画像IDに応じて、前記カーソル画像に含まれる特定領域の色相成分を、前記画像生成手段によって生成される表示画像の変化に合わせて変化させる前記カーソル表示手段」、「前記画像IDに対応付けてカーソル画像の形状を変化させる前記カーソル表示手段」、「前記画像IDに対応付けてカーソル画像の軌跡部分を変化させる前記カーソル表示手段」または「前記第2の表示画面に拡張現実画像を表示しているか否かに基づいて、前記画像生成手段によって生成される表示画像上に表示するカーソル画像の大きさを変える前記カーソル表示手段」の一例である。このカーソル表示部107は、操作端末2が示す指示座標に、カーソルを表示するものである。以下、カーソル表示部107の処理を詳細に説明する。   The cursor display unit 107 is a “cursor display unit that synthesizes a plurality of types of one cursor image that repeatedly changes at a predetermined time period on the display image by the image generation unit”, and a “new image ID corresponding to a new image ID”. The cursor that causes the image generation unit to synthesize the cursor image so that a new cursor image is read from the image ID storage unit and the new cursor image is displayed at the designated coordinates estimated by the position estimation unit. Based on the position coordinates of the frame estimated by the display means or the position estimation means, the new cursor image is positioned at the center of the new display image displayed on the second display means. It is an example of the “cursor display unit” that generates a new display image and displays it on the second display unit. Further, the cursor display unit 107 is “the cursor display unit that changes the hue component of the specific area included in the cursor image according to the change of the display image generated by the image generation unit according to the image ID”. , "The cursor display means for changing the shape of the cursor image in association with the image ID", "the cursor display means for changing the locus portion of the cursor image in association with the image ID" or "the second display It is an example of the “cursor display unit” that changes the size of the cursor image displayed on the display image generated by the image generation unit based on whether or not an augmented reality image is displayed on the screen. The cursor display unit 107 displays a cursor at designated coordinates indicated by the operation terminal 2. Hereinafter, the processing of the cursor display unit 107 will be described in detail.

まず、位置向き推定部102から、ディスプレイ上の指示座標P2(P2x,P2y)と、操作端末とディスプレイとの距離Dを受け取る。次に、指示座標P2(P2x,P2y)から、画面上のカーソル位置C(Cx,Cy)を決定し、距離Dから、カーソルの大きさScを決定する。具体的には、カーソル位置は、C(Cx,Cy)=P2(P2x,P2y)でよい。また、カーソルの大きさScは、あらかじめ決めた定数k1、k2を用いて、Sc=k1*D+k2という式によって求めてもよい。この結果、ユーザがディスプレイから離れると、カーソルが大きく表示されることで、ユーザから見たカーソル表示の見易さを向上でき、さらに、カーソルの認識もしやすくなる。さらに、カーソルの大きさScは、アプリケーション処理部14で実行されるアプリケーションの種類に応じて、Scを変化させても良い。例えば、ポインティングカーソルを表示する用途のときをSc1とした場合に、拡張現実型ユーザインタフェースを表示する用途のとき2*Sc1となるようにスケールの係数を調整しても良い。本発明では、カーソルの大きさを調整することによって、カメラ画像上での認識誤差を画素単位に調整することができ、アプリケーションが必要とする認識精度を提供することが可能である。低い精度しか必要でない場合は、カーソルの大きさを小さくすることで、ディスプレイ上のカーソルの見た目を目立たせなくする効果がある。   First, from the position / orientation estimation unit 102, the designated coordinates P2 (P2x, P2y) on the display and the distance D between the operation terminal and the display are received. Next, the cursor position C (Cx, Cy) on the screen is determined from the designated coordinates P2 (P2x, P2y), and the cursor size Sc is determined from the distance D. Specifically, the cursor position may be C (Cx, Cy) = P2 (P2x, P2y). Further, the cursor size Sc may be obtained by the equation Sc = k1 * D + k2 using predetermined constants k1 and k2. As a result, when the user leaves the display, the cursor is displayed in a large size, so that it is possible to improve the visibility of the cursor display seen by the user, and the cursor can be easily recognized. Further, the cursor size Sc may be changed according to the type of application executed by the application processing unit 14. For example, when Sc1 is used for displaying the pointing cursor, the scale factor may be adjusted to be 2 * Sc1 when using the augmented reality user interface. In the present invention, the recognition error on the camera image can be adjusted in units of pixels by adjusting the size of the cursor, and the recognition accuracy required by the application can be provided. When only low accuracy is required, reducing the size of the cursor has the effect of making the appearance of the cursor on the display inconspicuous.

次に、このカーソル座標とカーソルの大きさに関して、前フレームで表示したカーソルと値を比較し、前フレームと同じ場合は、カーソルの表示は変化させない。このとき、前フレームとの相違が一定の範囲内の場合は、同じ値と判断し、前フレームの値を用いてもよい。これによって、手ぶれなどによるポインティングの揺れを押さえ、カーソル表示を安定化させることができる。前フレームと異なると判断した場合には、画像ID管理部104から次フレームのカーソル画像の画像IDを取得し、その画像IDに対応するカーソル画像を、カーソルデータ記憶部106から受け取る(図13(c)の場合)。次に、カーソル座標記憶部105に対して、画像IDと対応するカーソル座標C(Cx,Cy)の更新を要求する。例えば、カーソル座標記憶部105に記憶されている内容が図14(a)の状態において、画像IDが2で、位置向き推定部102で推定されたカーソルサイズが110、カーソルの座標(231,210)の場合、カーソル座標記憶部105に記憶されているカーソル座標データを、図14(b)のように更新する。最後に、カーソル表示部107は、カーソルサイズが110で、(231,210)にカーソルの画像中心となるように、画像IDが2のカーソル画像のビットマップを画面上に描画する。ただし、WindowsVista(登録商標)などのウィンドウシステムをユーザインタフェース装置10が利用している場合は、実際にカーソルを描画するのではなく、カーソルを含むビットマップを画面上に描画してくれるようにシステムに要求するまでを処理する。そのため、どのタイミングでカーソルが画面上に表示されるのか、ユーザインタフェース装置10は管理していない。なお、ウィンドウシステムを経由せずに、画面に表示するビットマップ(フレームバッファ)上に、直接、カーソルを描画するまで処理してもよい。   Next, regarding the cursor coordinates and the size of the cursor, the cursor is compared with the value displayed in the previous frame, and if it is the same as the previous frame, the cursor display is not changed. At this time, when the difference from the previous frame is within a certain range, it may be determined that the value is the same and the value of the previous frame may be used. As a result, the shaking of the pointing due to camera shake or the like can be suppressed, and the cursor display can be stabilized. If it is determined that it is different from the previous frame, the image ID of the cursor image of the next frame is acquired from the image ID management unit 104, and the cursor image corresponding to the image ID is received from the cursor data storage unit 106 (FIG. 13 ( In the case of c)). Next, the cursor coordinate storage unit 105 is requested to update the cursor coordinates C (Cx, Cy) corresponding to the image ID. For example, in the state of FIG. 14A stored in the cursor coordinate storage unit 105, the image ID is 2, the cursor size estimated by the position / orientation estimation unit 102 is 110, and the cursor coordinates (231, 210). ), The cursor coordinate data stored in the cursor coordinate storage unit 105 is updated as shown in FIG. Finally, the cursor display unit 107 draws a bitmap of a cursor image having an image ID of 2 on the screen so that the cursor size is 110 and the image center of the cursor is (231, 210). However, when the user interface device 10 uses a window system such as Windows Vista (registered trademark), the system does not actually draw the cursor but draws a bitmap including the cursor on the screen. Process until requested. For this reason, the user interface device 10 does not manage when the cursor is displayed on the screen. Processing may be performed until the cursor is directly drawn on a bitmap (frame buffer) displayed on the screen without going through the window system.

第2画像生成部108は、第2の表示画面23で表示する画像(ビットマップデータ)を生成する。具体的には、アプリケーションが、画面の拡大表示アプリケーションの場合は、ディスプレイ上の指示座標P2を取得し、アプリケーション処理部14で表示しているアプリ画面の指示座標近辺のビットマップを切り出した画像(例えば、図1(b))を生成する。この画像データは、データ送信部12、データ受信部25、画面表示部26を経由して、最終的には、第2の表示画面23に表示される。また、アプリケーションが、拡張現実型ユーザインタフェースの場合は、位置向き推定部102から、ディスプレイの位置向きを示す4×4の座標変換マトリックスM_cdを受け取り、その座標変換マトリックスの指し示す位置向きの基づき、カメラ画像上に表示されているディスプレイの内容と関連する情報をCGで重畳表示することで、図1(c)のような合成画像を生成することができる。この合成画像データは、データ送信部12、データ受信部25、画面表示部26を経由して、最終的には、第2の表示画面23に表示される。   The second image generation unit 108 generates an image (bitmap data) to be displayed on the second display screen 23. Specifically, if the application is a screen enlargement display application, an image obtained by acquiring the designated coordinates P2 on the display and cutting out a bitmap in the vicinity of the designated coordinates on the application screen displayed by the application processing unit 14 ( For example, FIG. 1B is generated. This image data is finally displayed on the second display screen 23 via the data transmission unit 12, the data reception unit 25, and the screen display unit 26. Further, when the application is an augmented reality user interface, a 4 × 4 coordinate transformation matrix M_cd indicating the position and orientation of the display is received from the position and orientation estimation unit 102, and the camera is determined based on the position and orientation indicated by the coordinate transformation matrix. By superimposing and displaying information related to the contents of the display displayed on the image with CG, a composite image as shown in FIG. 1C can be generated. The composite image data is finally displayed on the second display screen 23 via the data transmission unit 12, the data reception unit 25, and the screen display unit 26.

以上が、ユーザインタフェース装置10の説明である。   The above is the description of the user interface device 10.

次に、データ送信部12と、データ受信部13は、具体的には、IEEE801.11nなどの無線の通信手段やLANケーブルなどの有線の通信手段の処理部でよい。本発明は、任意の通信手段を適用することが可能である。   Next, the data transmission unit 12 and the data reception unit 13 may be specifically processing units of wireless communication means such as IEEE801.11n or wired communication means such as a LAN cable. Any communication means can be applied to the present invention.

アプリケーション処理部14は、情報表示装置1で動作するアプリケーションを処理するものであり、具体的なアプリケーションとしては、ウェブブラウザや、3DCADアプリケーションなどでよい。アプリケーションが要求した描画処理は、第2画像生成部108に送られて、処理される。なお、本発明は、画面上に情報を表示する任意のアプリケーションに適用することが可能である。   The application processing unit 14 processes an application that operates on the information display device 1, and a specific application may be a web browser, a 3D CAD application, or the like. The drawing process requested by the application is sent to the second image generation unit 108 for processing. The present invention can be applied to any application that displays information on a screen.

(処理の流れの説明)
以上のように構成されたユーザインタフェース装置10について、フローチャートを使用して、処理の流れを説明する。
(Explanation of processing flow)
Regarding the user interface device 10 configured as described above, the flow of processing will be described using a flowchart.

図15のフローチャートは、操作端末2の画像撮像部21で取得した画像情報から、ディスプレイの位置向きを推定し、操作端末2が指し示す位置にカーソルを表示するまでの処理である。図15の処理は、ユーザが操作端末2を操作中に一定時間間隔で呼ばれる(実行される)処理である。この一定時間は、30分の1秒や60分の1秒でよい。また、この一定時間とは、正確に定められた時間である必要はなく、連続的に図15の処理を繰り返して実行してもよい。なお、ユーザが操作端末2を操作中であるかどうかは、ユーザがボタンを押して操作開始を指示したことによって判定しても良いし、加速度センサやジャイロセンサを利用し、ユーザが端末を持っているかどうかによって判定しても良い。   The flowchart in FIG. 15 is a process from estimating the position and orientation of the display from the image information acquired by the image capturing unit 21 of the operation terminal 2 until displaying the cursor at the position indicated by the operation terminal 2. The process in FIG. 15 is a process called (executed) at regular time intervals while the user operates the operation terminal 2. This fixed time may be 1/30 second or 1/60 second. Further, the fixed time does not need to be an accurately determined time, and the processing of FIG. 15 may be repeated continuously. Whether or not the user is operating the operation terminal 2 may be determined by the user pressing the button to instruct the start of operation, or using an acceleration sensor or a gyro sensor, and the user holding the terminal. You may judge by whether it exists.

まず、操作端末2の画像撮像部21で、カラー画像(例えば、図8(a))を撮影し、データ送信部24とデータ受信部13を経由して、カーソル認識部101に送る(ステップS101)。カーソル認識部101では、予め定めた色値(色相の値)を閾値として、ラベリング処理(ステップS102)を行い、カーソル領域にラベルを割り当てる。ラベリング結果のデータは、図9(a)のようになり、この結果、カーソル認識部101は、図9(b)のような、カーソルの候補データを生成する。このとき、カーソルの候補がない場合や、正しく4頂点データや画像IDが認識されない場合は、カーソルが認識できなかった場合として処理は終了となる(ステップS103)。次に、カーソルの候補が1つ以上ある場合は、それぞれの候補に対して、位置向き推定部102で、ディスプレイの位置向きを示す座標変換マトリックスMcdと、ディスプレイ上の指示座標P2(P2x,P2y)、操作端末とディスプレイの距離Dを生成する(それぞれ、ステップS104、ステップS105、ステップ106)。このとき、推定時に利用する最小2乗法の認識誤差によって、認識誤差がある閾値以上のものは、正しく推定できなかったものとして処理は終了となる。次に、複数のカーソルが認識された場合は、認識誤差が最も小さなカーソル候補を選択すればよい。   First, a color image (for example, FIG. 8A) is captured by the image capturing unit 21 of the operation terminal 2, and is sent to the cursor recognition unit 101 via the data transmission unit 24 and the data reception unit 13 (step S101). ). The cursor recognition unit 101 performs a labeling process (step S102) using a predetermined color value (hue value) as a threshold, and assigns a label to the cursor area. The labeling result data is as shown in FIG. 9A. As a result, the cursor recognizing unit 101 generates candidate cursor data as shown in FIG. 9B. At this time, if there is no cursor candidate or if the four-vertex data and the image ID are not correctly recognized, the process ends as if the cursor could not be recognized (step S103). Next, if there are one or more cursor candidates, the position / orientation estimation unit 102 performs a coordinate transformation matrix Mcd indicating the position / orientation of the display and designated coordinates P2 (P2x, P2y) on the display for each candidate. ), A distance D between the operation terminal and the display is generated (step S104, step S105, and step 106, respectively). At this time, if the least square method recognition error used at the time of estimation is greater than a threshold value with a recognition error, the process is terminated, assuming that it has not been correctly estimated. Next, when a plurality of cursors are recognized, a cursor candidate having the smallest recognition error may be selected.

次に、カーソル表示部107は、位置向き推定部102から、ディスプレイ上の指示座標P2(P2x、P2y)と、操作端末とディスプレイとの距離Dを受け取り、次のフレームのカーソルの座標C(Cx,Cy)とカーソルの大きさScを算出する(ステップS107)。   Next, the cursor display unit 107 receives the instruction coordinates P2 (P2x, P2y) on the display and the distance D between the operation terminal and the display from the position / orientation estimation unit 102, and the cursor coordinates C (Cx of the next frame) , Cy) and the cursor size Sc are calculated (step S107).

この結果、前フレームから、カーソルの位置座標または大きさが変化するかどうかを判定し(ステップS108)、変化している場合にのみ、画像ID管理部104に画像IDの更新を要求して(ステップS109)、次のフレームの画像IDを受け取り、その画像IDに対応させて、カーソル座標記憶部105のデータ更新(ステップS110)と、カーソル表示部107でのカーソル表示処理を行なう(ステップS111)。ここで、カーソル表示部107は、「前記画像生成手段によって生成される表示画面上で、表示するカーソル画像の位置座標を移動させた場合にのみ、カーソル画像及び画像IDを変更する前記カーソル表示手段」の一例である。   As a result, it is determined whether or not the position coordinate or the size of the cursor changes from the previous frame (step S108), and only when it has changed, the image ID management unit 104 is requested to update the image ID ( In step S109, the image ID of the next frame is received, and in accordance with the image ID, data update in the cursor coordinate storage unit 105 (step S110) and cursor display processing in the cursor display unit 107 are performed (step S111). . Here, the cursor display unit 107 indicates that “the cursor display unit changes the cursor image and the image ID only when the position coordinates of the cursor image to be displayed are moved on the display screen generated by the image generation unit. Is an example.

さらに、以上の処理によって決定したカーソルの位置・向きに応じて、第1画像生成部103では、アプリケーションの内容に応じた画面を生成する。例えば、カーソルがボタン上に移動することで、ボタンの色を変化させるといった処理や、特定のボタン上にカーソルが移動した状態で、ユーザ入力部22から選択操作のイベントがアプリケーション処理部14に伝わると、別途ウィンドウを起動して、アプリケーションの表示が更新されるなどの処理を行なう。また、図1(c)のような拡張現実型ユーザインタフェース表示の場合は、ステップS104で生成された座標変換マトリックスに基づいて、カメラ画像上にCG画像を合成し、その結果は、第2の表示画面23上に表示される。ただし、これらの処理は、図15の処理の流れとは独立して動作するものでもよい。   Furthermore, according to the position / orientation of the cursor determined by the above processing, the first image generation unit 103 generates a screen according to the contents of the application. For example, when the cursor is moved over the button, the color of the button is changed, or when the cursor is moved over a specific button, a selection operation event is transmitted from the user input unit 22 to the application processing unit 14. Then, a separate window is activated to perform processing such as updating the display of the application. In the case of augmented reality type user interface display as shown in FIG. 1C, a CG image is synthesized on the camera image based on the coordinate transformation matrix generated in step S104. It is displayed on the display screen 23. However, these processes may operate independently of the process flow of FIG.

以上が、図15に示す、ユーザインタフェース装置の処理の流れに関する説明である。   This completes the description of the processing flow of the user interface device shown in FIG.

以上のように、第2の表示画面23の中央に表示されるように制御されるカーソル画像の画像IDが特定されることによって、そのカーソル画像が、何フレーム前に第1の表示画面11に表示された位置から移動されたかがわかるので、操作端末2の動きに正確に追従した位置に新たなカーソル画像を表示することができる。   As described above, by specifying the image ID of the cursor image controlled to be displayed in the center of the second display screen 23, the cursor image is displayed on the first display screen 11 how many frames ago. Since it can be known whether the position has been moved from the displayed position, a new cursor image can be displayed at a position that accurately follows the movement of the operation terminal 2.

なお、図1(b)は、実行対象のアプリケーションが拡大表示アプリケーションの場合に、第2の表示画面23に表示されるビットマップイメージの一例を示す図である。図1(b)に示すアプリケーション画面は、操作端末2で撮影されたカメラ画像ではなく、第1の表示画面11に表示されているビットマップの一部分を切り出して拡大表示したものである。この拡大表示アプリケーションを使うことにより、ユーザは、操作端末2で指し示した部分の画面の内容を拡大して表示することができる。このような拡大表示アプリケーションを実行する場合の処理手順は、図4のフローチャートに対応させると次のようになる。すなわち、ステップS306で、背景画像とMR画像とを合成する代わりに、情報表示装置1の第2画像生成部は背景画像の拡大画像を生成し、ステップS307では生成した拡大画像を操作端末2へ送信する。ステップS310で、操作端末2のデータ受信部25は、情報表示装置1のデータ送信部12から表示用の拡大画像を受信し、受信した拡大画像を第2の表示画面23に表示する。   FIG. 1B is a diagram illustrating an example of a bitmap image displayed on the second display screen 23 when the application to be executed is an enlarged display application. The application screen shown in FIG. 1B is not a camera image taken by the operation terminal 2 but a part of the bitmap displayed on the first display screen 11 that is cut out and enlarged. By using this enlarged display application, the user can enlarge and display the content of the screen pointed to by the operation terminal 2. The processing procedure for executing such an enlarged display application is as follows, corresponding to the flowchart of FIG. That is, in step S306, instead of synthesizing the background image and the MR image, the second image generation unit of the information display device 1 generates an enlarged image of the background image, and in step S307, the generated enlarged image is sent to the operation terminal 2. Send. In step S <b> 310, the data reception unit 25 of the operation terminal 2 receives the enlarged image for display from the data transmission unit 12 of the information display device 1 and displays the received enlarged image on the second display screen 23.

(実施の形態2)
図16は、本発明の実施の形態2の情報表示装置1601及び操作端末1602の要部の構成の一例を示すブロック図である。なお、外観図は、図1と同じであるが、本実施の形態2では操作端末1602が、携帯電話端末であり、情報表示装置1601とは独立した情報機器となる。図16において、図1および図5と同じ構成要素については同じ符号を用い、説明を省略する。
(Embodiment 2)
FIG. 16 is a block diagram illustrating an example of a configuration of main parts of the information display device 1601 and the operation terminal 1602 according to the second embodiment of the present invention. Although the external view is the same as FIG. 1, in the second embodiment, the operation terminal 1602 is a mobile phone terminal and is an information device independent of the information display device 1601. In FIG. 16, the same components as those in FIGS. 1 and 5 are denoted by the same reference numerals, and the description thereof is omitted.

ここで、図16に示した実施の形態2の構成と、図5に示した実施の形態1の構成とで大きく異なる点は、ユーザインタフェース装置10が操作端末1602内にあるか、情報表示装置1内にあるか、という点である。具体的には、実施の形態2では、携帯電話端末の外部ディスプレイを、第1の表示画面11として利用してもよい。この場合、第1の表示画面11に表示する内容は、携帯電話端末内のユーザインタフェース装置10の第1画像生成部103によって生成される。   Here, the difference between the configuration of the second embodiment shown in FIG. 16 and the configuration of the first embodiment shown in FIG. 5 is that the user interface device 10 is in the operation terminal 1602 or an information display device. Whether it is within 1 or not. Specifically, in the second embodiment, an external display of a mobile phone terminal may be used as the first display screen 11. In this case, the content displayed on the first display screen 11 is generated by the first image generation unit 103 of the user interface device 10 in the mobile phone terminal.

情報表示装置1601は、第1の表示画面11と、データ受信部13、表示モード管理部15および画面表示部26を備える。実施の形態1と異なり、データ受信部13を経由して送られてきた画像データを、画面表示部26が受け取り、第1の表示画面11に画像を表示する。このとき、表示モード管理部15は、画面の表示モードを管理し、外部映像入力が操作端末1602からの画像情報を受け付けるモードの場合のみ、データ受信部13で受け取ったデータを画面表示部26に送るように制御する。具体的には、このモードは、ユーザからの指示によって変更しても良いし、データ受信部13を経由して、操作端末1602からのモード切り替え要求を利用して変更しても良い。   The information display device 1601 includes a first display screen 11, a data receiving unit 13, a display mode management unit 15, and a screen display unit 26. Unlike the first embodiment, the screen display unit 26 receives image data sent via the data receiving unit 13 and displays an image on the first display screen 11. At this time, the display mode management unit 15 manages the display mode of the screen, and only when the external video input is a mode in which image information from the operation terminal 1602 is received, the data received by the data receiving unit 13 is input to the screen display unit 26. Control to send. Specifically, this mode may be changed by an instruction from the user, or may be changed using a mode switching request from the operation terminal 1602 via the data receiving unit 13.

次に、操作端末1602は、ユーザインタフェース装置10、アプリケーション処理部14、画像撮像部21、ユーザ入力部22、第2の表示画面23、データ送信部24を備える。従って、実施の形態1と異なり、操作端末1602によって入力または撮像されたユーザ入力データやカラー画像データは、操作端末1602の中で、直接、ユーザインタフェース装置10に送られる。   Next, the operation terminal 1602 includes a user interface device 10, an application processing unit 14, an image capturing unit 21, a user input unit 22, a second display screen 23, and a data transmission unit 24. Therefore, unlike the first embodiment, user input data and color image data input or captured by the operation terminal 1602 are sent directly to the user interface device 10 in the operation terminal 1602.

その他の構成は、実施の形態1と同様であるので、説明を省略する。   Since other configurations are the same as those of the first embodiment, description thereof is omitted.

実施の形態2では、情報表示装置1601と操作端末1602とが、全く異なる機器であり、このような場合、情報表示装置1601の第1の表示画面11と、操作端末1602の画像撮像部21とが、タイミングの同期を取って動作することは大変に難しい。本発明では、このような、ディスプレイの表示やカメラの撮影の同期が難しい場合においても、正確な位置向きを推定することが可能である。   In the second embodiment, the information display device 1601 and the operation terminal 1602 are completely different devices. In such a case, the first display screen 11 of the information display device 1601, the image capturing unit 21 of the operation terminal 1602, and the like. However, it is very difficult to operate with timing synchronization. In the present invention, it is possible to estimate an accurate position and orientation even when it is difficult to synchronize display display and camera shooting.

(実施の形態3)
図17は、本発明の実施の形態3の情報表示装置1701及び操作端末1702の構成の一例を示すブロック図である。本実施の形態3の情報表示装置1701と操作端末1702とは、いずれか一方の装置にユーザインタフェース装置が含まれるのではなく、それぞれの表示画面で表示すべき画像をそれぞれの画像生成部で生成する点が、上記実施の形態1、2と異なる点である。
(Embodiment 3)
FIG. 17 is a block diagram showing an example of the configuration of the information display device 1701 and the operation terminal 1702 according to Embodiment 3 of the present invention. The information display device 1701 and the operation terminal 1702 according to the third embodiment do not include a user interface device in either device, but generate an image to be displayed on each display screen by each image generation unit. This is a difference from the first and second embodiments.

具体的には、操作端末1702では、図5に示した操作端末2と比較して、画面表示部26が第2画像生成部108に変更され、新たに、カーソル認識部101が追加されている。すなわち、実施の形態3の操作端末1702では、画面表示部26のように、ユーザインタフェース装置10内の第2画像生成部から受信した画像データをそのまま第2の表示画面23に表示するのではなくて、第2画像生成部108が、画像撮像部21で撮像した撮像画像と情報表示装置1701から受信したカーソル画像、画像ID、操作端末1702の位置及び向きなどから第2の表示画面23に表示する表示画像を生成する。また、操作端末1702では、新たにカーソル認識部101を備え、カーソル認識部101は、画像撮像部21で撮像したカーソル画像から、画像認識によってカーソル画像の画像IDを特定する機能を備える。カーソル認識部101によって認識された認識結果は、操作端末1702のデータ送信部24及び情報表示装置1701のデータ受信部13を経由して、アプリケーション処理部14及び位置向き推定部102に与えられる。   Specifically, in the operation terminal 1702, as compared with the operation terminal 2 shown in FIG. 5, the screen display unit 26 is changed to the second image generation unit 108, and the cursor recognition unit 101 is newly added. . That is, in the operation terminal 1702 of the third embodiment, unlike the screen display unit 26, the image data received from the second image generation unit in the user interface device 10 is not displayed on the second display screen 23 as it is. The second image generation unit 108 displays on the second display screen 23 from the captured image captured by the image capturing unit 21, the cursor image received from the information display device 1701, the image ID, the position and orientation of the operation terminal 1702, and the like. A display image to be generated is generated. The operation terminal 1702 further includes a cursor recognition unit 101, and the cursor recognition unit 101 has a function of identifying an image ID of a cursor image by image recognition from a cursor image captured by the image imaging unit 21. The recognition result recognized by the cursor recognition unit 101 is given to the application processing unit 14 and the position / orientation estimation unit 102 via the data transmission unit 24 of the operation terminal 1702 and the data reception unit 13 of the information display device 1701.

これに対応して、情報表示装置1701では、図5に示したユーザインタフェース装置10からカーソル認識部101と第2画像生成部108とがなくなっている。このような構成により、情報表示装置1におけるユーザインタフェース装置10の処理負荷が軽減されるという効果がある。その分、操作端末1702は、単なるリモコンではなく、カーソル認識及び第2の表示画面に表示する表示画像を生成する機能を備えた携帯電話機などである必要がある。   Correspondingly, in the information display device 1701, the cursor recognition unit 101 and the second image generation unit 108 are eliminated from the user interface device 10 shown in FIG. With such a configuration, there is an effect that the processing load of the user interface device 10 in the information display device 1 is reduced. Accordingly, the operation terminal 1702 needs to be not a simple remote controller but a mobile phone or the like having functions of cursor recognition and generating a display image to be displayed on the second display screen.

なお、ブロック図(図5、16、17など)の各機能ブロックは典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されても良いし、一部又は全てを含むように1チップ化されても良い。例えばメモリ以外の機能ブロックが1チップ化されていても良い。   Each functional block in the block diagrams (FIGS. 5, 16, 17 and the like) is typically realized as an LSI which is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them. For example, the functional blocks other than the memory may be integrated into one chip.

ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。   The name used here is LSI, but it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.

また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。   Further, the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.

さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。   Further, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied.

また、各機能ブロックのうち、符号化または復号化の対象となるデータを格納する手段だけ1チップ化せずに別構成としても良い。   In addition, among the functional blocks, only the means for storing the data to be encoded or decoded may be configured separately instead of being integrated into one chip.

本発明にかかるユーザインタフェース装置は、デジタルテレビ装置やパーソナルコンピュータなどのディスプレイに表示されたコンテンツや情報を操作・閲覧するユーザインタフェース等として有用である。また、携帯電話端末の外部ディスプレイ出力時のユーザインタフェースや、据え置き型ゲーム機と携帯型ゲームを連携させて遊ぶゲームのユーザインタフェース等にも応用できる。   The user interface device according to the present invention is useful as a user interface for operating / browsing content and information displayed on a display such as a digital television device or a personal computer. Further, the present invention can be applied to a user interface when an external display is output from a mobile phone terminal, a user interface of a game that is played by linking a stationary game machine and a portable game, and the like.

本発明の実施の形態1における操作端末及び情報表示装置の外観図である。It is an external view of the operation terminal and information display apparatus in Embodiment 1 of this invention. 第1の表示画面11に表示されたカーソル画像を操作端末2で撮影し、撮影されたカーソル画像を画像解析することにより、次のフレームで第1の表示画面11上に表示するカーソル画像の表示位置を決定する仕組みを説明する図である。The cursor image displayed on the first display screen 11 is photographed by the operation terminal 2 and the photographed cursor image is analyzed to display the cursor image to be displayed on the first display screen 11 in the next frame. It is a figure explaining the mechanism which determines a position. 図2(a)に示したカーソル画像の表示を行う場合の操作端末2及び情報表示装置1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the operating terminal 2 and the information display apparatus 1 when performing the display of the cursor image shown to Fig.2 (a). 図1(c)に示した拡張現実型ユーザインタフェースのアプリケーションを実行する場合の操作端末2及び情報表示装置1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the operating terminal 2 and the information display apparatus 1 in the case of performing the application of the augmented reality type user interface shown in FIG.1 (c). 本発明の実施の形態1における操作端末及び情報表示装置の要部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the principal part of the operating terminal and information display apparatus in Embodiment 1 of this invention. 本発明の実施の形態1におけるRGB形式の画像をHSV形式の画像に変換するための式を示した図である。It is the figure which showed the formula for converting the image of RGB format in Embodiment 1 of this invention into the image of HSV format. 本発明の実施の形態1におけるカーソル画像の一例と、その色構成を説明するための概念図である。It is a conceptual diagram for demonstrating an example of the cursor image in Embodiment 1 of this invention, and its color structure. 本発明の実施の形態1におけるカラー画像データとラベリング処理を説明するための概念図である。It is a conceptual diagram for demonstrating the color image data and labeling process in Embodiment 1 of this invention. 本発明の実施の形態1におけるラベリング結果データと、カーソルの候補データを説明するための概念図である。It is a conceptual diagram for demonstrating the labeling result data in Embodiment 1 of this invention, and the candidate data of a cursor. 本発明の実施の形態1における画像IDとカーソル画像の対応関係を説明するための概念図である。It is a conceptual diagram for demonstrating the correspondence of image ID and cursor image in Embodiment 1 of this invention. 本発明の実施の形態1における矢印型カーソル画像の一例を説明するための概念図である。It is a conceptual diagram for demonstrating an example of the arrow type cursor image in Embodiment 1 of this invention. 本発明の実施の形態1における矢印型カーソル画像から取得できる特徴点を説明するための概念図である。It is a conceptual diagram for demonstrating the feature point acquirable from the arrow type cursor image in Embodiment 1 of this invention. 本発明の実施の形態1におけるカーソル画像の位置変化と画像IDとの関係を説明するための概念図である。It is a conceptual diagram for demonstrating the relationship between the position change of the cursor image and image ID in Embodiment 1 of this invention. 本発明の実施の形態1におけるカーソル座標記憶部に記憶されるデータ処理の流れを説明するための概念図である。It is a conceptual diagram for demonstrating the flow of the data processing memorize | stored in the cursor coordinate memory | storage part in Embodiment 1 of this invention. 本発明の実施の形態1における処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the process in Embodiment 1 of this invention. 本発明の実施の形態2における操作端末及び情報表示装置の要部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the principal part of the operating terminal and information display apparatus in Embodiment 2 of this invention. 本発明の実施の形態3における操作端末及び情報表示装置の要部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the principal part of the operating terminal and information display apparatus in Embodiment 3 of this invention.

符号の説明Explanation of symbols

1、1601、1701 情報表示装置
2、1602、1702 操作端末
10 ユーザインタフェース装置
11 第1の表示画面
12 データ送信部
13 データ受信部
14 アプリケーション処理部
15 表示モード管理部
21 画像撮像部
22 ユーザ入力部
23 第2の表示画面
24 データ送信部
25 データ受信部
26 画面表示部
101 カーソル認識部
102 位置向き推定部
103 画像生成部
104 画像ID管理部
105 カーソル座標記憶部
106 カーソルデータ記憶部
107 カーソル表示部
108 第2画像生成部
DESCRIPTION OF SYMBOLS 1,1601,1701 Information display apparatus 2,1602,1702 Operation terminal 10 User interface apparatus 11 1st display screen 12 Data transmission part 13 Data reception part 14 Application processing part 15 Display mode management part 21 Image imaging part 22 User input part 23 Second display screen 24 Data transmission unit 25 Data reception unit 26 Screen display unit 101 Cursor recognition unit 102 Position orientation estimation unit 103 Image generation unit 104 Image ID management unit 105 Cursor coordinate storage unit 106 Cursor data storage unit 107 Cursor display unit 108 Second image generation unit

Claims (17)

表示画面上に表示されるカーソル画像を画像撮像装置が撮影して得られる撮像画像の画像認識結果に基づいて、前記カーソル画像を含む新たな画像を表示させるユーザインタフェース装置であって、
表示画面に表示させる表示画像を生成する画像生成手段と、
所定の時間周期で繰り返し変化する複数種類の1つのカーソル画像を前記画像生成手段によって前記表示画像上に合成させるカーソル表示手段と、
複数種類の前記カーソル画像と、それぞれの前記カーソル画像が表示される表示画像を特定するための画像IDとを予め対応付けて記憶する画像ID記憶手段と、
前記撮像画像に含まれる前記カーソル画像を画像認識し、前記画像ID記憶手段の記憶内容に基づいて、撮像された前記カーソル画像の画像IDを、認識された前記カーソル画像から特定するカーソル認識手段と、
撮像された前記カーソル画像の前記表示画面上の位置座標を算出し、算出された前記位置座標を、特定された前記画像IDと対応付けて記憶するカーソル座標記憶手段と、
前記カーソル認識手段による前記認識結果と、前記カーソル座標記憶手段が記憶している前記位置座標とから、前記画像撮像装置が撮像した前記表示画像と、前記表示画像上の前記画像撮像装置が現在指し示している位置を示す指示座標とを推定する位置推定手段とを備え、
前記カーソル表示手段は、新たな画像IDに対応する新たなカーソル画像を前記画像ID記憶手段から読み出し、前記新たなカーソル画像が、前記位置推定手段によって推定された前記指示座標に表示されるように、前記画像生成手段に前記カーソル画像を合成させる
ことを特徴とするユーザインタフェース装置。
A user interface device that displays a new image including the cursor image based on an image recognition result of a captured image obtained by the image capturing device capturing a cursor image displayed on a display screen,
Image generating means for generating a display image to be displayed on the display screen;
Cursor display means for synthesizing a plurality of types of one cursor image that repeatedly changes at a predetermined time period on the display image by the image generation means;
Image ID storage means for storing a plurality of types of cursor images and image IDs for specifying display images on which the cursor images are displayed in association with each other;
Cursor recognition means for recognizing the cursor image included in the captured image and identifying the image ID of the captured cursor image from the recognized cursor image based on the stored contents of the image ID storage means; ,
Cursor coordinate storage means for calculating a position coordinate on the display screen of the captured cursor image, and storing the calculated position coordinate in association with the specified image ID;
The display image picked up by the image pickup device and the image pickup device on the display image currently indicate from the recognition result by the cursor recognition means and the position coordinates stored in the cursor coordinate storage means. Position estimation means for estimating the indicated coordinates indicating the current position,
The cursor display means reads out a new cursor image corresponding to a new image ID from the image ID storage means, and displays the new cursor image at the indicated coordinates estimated by the position estimation means. A user interface device characterized by causing the image generation means to synthesize the cursor image.
前記画像撮像装置は、前記撮像画像を表示する第2の表示手段を備え、
前記カーソル表示手段は、前記位置推定手段によって推定されたフレームの前記位置座標に基づいて、新たなカーソル画像が、前記第2の表示手段に表示される新たな表示画像の中央に位置するように新たな表示画像を生成し、前記第2の表示手段に表示させる
ことを特徴とする請求項1記載のユーザインタフェース装置。
The image capturing apparatus includes a second display unit that displays the captured image.
The cursor display means is arranged so that the new cursor image is positioned at the center of the new display image displayed on the second display means based on the position coordinates of the frame estimated by the position estimation means. The user interface device according to claim 1, wherein a new display image is generated and displayed on the second display unit.
前記カーソル表示手段は、前記画像生成手段によって生成される表示画面上で、表示するカーソル画像の位置座標を移動させた場合にのみ、カーソル画像及び画像IDを変更する
ことを特徴とする請求項2記載のユーザインタフェース装置。
The cursor display means changes the cursor image and the image ID only when the position coordinates of the cursor image to be displayed are moved on the display screen generated by the image generation means. A user interface device as described.
前記カーソル表示手段は、前記推定した位置関係に基づいて、前記画像生成手段によって生成される表示画面上に表示する前記カーソル画像の大きさを変化させ、
前記カーソル座標記憶手段は、表示した前記カーソル画像の位置座標と大きさとを記憶する
ことを特徴とする請求項2記載のユーザインタフェース装置。
The cursor display means changes the size of the cursor image displayed on the display screen generated by the image generation means based on the estimated positional relationship,
The user interface device according to claim 2, wherein the cursor coordinate storage unit stores a position coordinate and a size of the displayed cursor image.
前記カーソル表示手段は、前記画像IDに応じて、前記カーソル画像に含まれる特定領域の色相成分を、前記画像生成手段によって生成される表示画像の変化に合わせて変化させる
ことを特徴とする請求項2記載のユーザインタフェース装置。
The said cursor display means changes the hue component of the specific area | region contained in the said cursor image according to the change of the display image produced | generated by the said image production | generation means according to the said image ID. 2. The user interface device according to 2.
前記カーソル表示手段は、前記画像IDに対応付けてカーソル画像の形状を変化させる
ことを特徴とする請求項2記載のユーザインタフェース装置。
The user interface device according to claim 2, wherein the cursor display unit changes the shape of the cursor image in association with the image ID.
前記カーソル表示手段は、前記画像IDに対応付けてカーソル画像の軌跡部分を変化させる
ことを特徴とする請求項2記載のユーザインタフェース装置。
The user interface device according to claim 2, wherein the cursor display unit changes a locus portion of the cursor image in association with the image ID.
前記画像撮像装置は、前記撮像画像を表示する第2の表示手段を備え、
前記画像生成手段は、推定した前記位置座標から、前記画像撮像装置の相対的位置を表す位置向き情報に基づいて、前記画像撮像装置で撮影した画像とCGで生成した画像とを合成して、前記第2の表示画面に表示すべき拡張現実画像を生成する
ことを特徴とする請求項2記載のユーザインタフェース装置。
The image capturing apparatus includes a second display unit that displays the captured image.
The image generation unit combines the image captured by the image capturing device and the image generated by CG based on the estimated position coordinates based on the position and orientation information representing the relative position of the image capturing device. The user interface device according to claim 2, wherein an augmented reality image to be displayed on the second display screen is generated.
前記カーソル表示手段は、前記第2の表示画面に拡張現実画像を表示しているか否かに基づいて、前記画像生成手段によって生成される表示画像上に表示するカーソル画像の大きさを変える
ことを特徴とする請求項8記載のユーザインタフェース装置。
The cursor display means changes the size of the cursor image displayed on the display image generated by the image generation means based on whether or not the augmented reality image is displayed on the second display screen. 9. The user interface device according to claim 8, wherein:
前記画像生成手段は、推定した前記位置座標から、前記画像撮像装置の相対的位置を表す位置向き情報に基づいて、前記第2の表示画面に表示されている表示画像の一部分を切り出し、切り出された前記一部の表示画像を拡大して生成する
ことを特徴とする請求項2記載のユーザインタフェース装置。
The image generation means cuts out a part of the display image displayed on the second display screen based on the position and orientation information indicating the relative position of the image capturing device from the estimated position coordinates. The user interface device according to claim 2, wherein the partial display image is enlarged and generated.
前記画像生成手段は、ウェブブラウザ上に表示する画像を生成する
ことを特徴とする請求項2記載のユーザインタフェース装置。
The user interface device according to claim 2, wherein the image generation unit generates an image to be displayed on a web browser.
表示画面上に表示されるカーソル画像を画像撮像装置が撮影して得られる撮像画像の画像認識結果に基づいて、前記カーソル画像を含む新たな画像を表示させる情報表示装置であって、
表示画面に表示させる表示画像を生成する画像生成手段と、
所定の時間周期で繰り返し変化する複数種類の1つのカーソル画像を前記画像生成手段によって前記表示画像上に合成させるカーソル表示手段と、
複数種類の前記カーソル画像と、それぞれの前記カーソル画像が表示される表示画像を特定するための画像IDとを予め対応付けて記憶する画像ID記憶手段と、
前記画像撮像装置から、前記撮像画像に含まれる前記カーソル画像の画像認識結果であり前記カーソル画像を表すカーソルデータを受信するカーソルデータ受信手段と、
前記カーソルデータ受信手段で受信した前記カーソルデータと、前記画像ID記憶手段の記憶内容とに基づいて、撮像された前記カーソル画像の画像IDを特定するカーソル認識手段と、
撮像された前記カーソル画像の前記表示画面上の位置座標を、前記カーソルデータ受信手段で受信した前記カーソルデータから算出し、算出された前記位置座標を、特定された前記画像IDと対応付けて記憶するカーソル座標記憶手段と、
前記カーソルデータ受信手段で受信した前記カーソルデータと、前記カーソル座標記憶手段が記憶している前記位置座標とから、前記画像撮像装置が撮像した前記表示画像と、前記表示画像上の前記画像撮像装置が現在指し示している位置を示す指示座標とを推定する位置推定手段とを備え、
前記カーソル表示手段は、新たな画像IDに対応する新たなカーソル画像を前記画像ID記憶手段から読み出し、前記新たなカーソル画像が、前記位置推定手段によって推定された前記指示座標に表示されるように、前記画像生成手段に前記カーソル画像を合成させる
ことを特徴とする情報表示装置。
An information display device that displays a new image including the cursor image on the basis of an image recognition result of a captured image obtained by the image capturing device capturing a cursor image displayed on a display screen,
Image generating means for generating a display image to be displayed on the display screen;
Cursor display means for synthesizing a plurality of types of one cursor image that repeatedly changes at a predetermined time period on the display image by the image generation means;
Image ID storage means for storing a plurality of types of cursor images and image IDs for specifying display images on which the cursor images are displayed in association with each other;
Cursor data receiving means for receiving cursor data representing the cursor image that is an image recognition result of the cursor image included in the captured image from the image capturing device;
Cursor recognition means for specifying an image ID of the captured cursor image based on the cursor data received by the cursor data receiving means and the stored contents of the image ID storage means;
The position coordinates on the display screen of the captured cursor image are calculated from the cursor data received by the cursor data receiving means, and the calculated position coordinates are stored in association with the specified image ID. Cursor coordinate storage means for
The display image picked up by the image pickup device from the cursor data received by the cursor data receiving means and the position coordinates stored in the cursor coordinate storage means, and the image pickup device on the display image Including position estimation means for estimating the indicated coordinates indicating the position currently pointed to,
The cursor display means reads out a new cursor image corresponding to a new image ID from the image ID storage means, and displays the new cursor image at the indicated coordinates estimated by the position estimation means. An information display device characterized by causing the image generation means to synthesize the cursor image.
情報表示装置の表示画面上に表示されるカーソル画像を撮影して得られる撮像画像の画像認識結果に基づいて、前記カーソル画像を含む新たな画像を前記情報表示装置に表示させる操作端末であって、
前記情報表示装置の表示画面上に表示されるカーソル画像を撮像する撮像手段と、
前記撮像手段によって撮影された撮像画像に含まれる前記カーソル画像を画像認識し、前記画像認識結果として前記カーソル画像を表すカーソルデータを、前記情報表示装置に送信するカーソルデータ送信手段と、
前記情報表示装置から、新たに表示すべきカーソル画像のカーソルデータを受信するカーソルデータ受信手段と、
前記撮像手段によって撮影された前記撮像画像と、前記カーソルデータ受信手段で受信した前記カーソルデータとに基づいて、前記撮像画像に新たなカーソル画像を合成し、表示画像を生成する第2画像生成手段と、
前記第2画像生成手段によって生成された表示画像を表示する第2の表示手段と
を備えることを特徴とする操作端末。
An operation terminal for displaying a new image including the cursor image on the information display device based on an image recognition result of a captured image obtained by photographing a cursor image displayed on a display screen of the information display device. ,
Imaging means for imaging a cursor image displayed on a display screen of the information display device;
Cursor data transmission means for recognizing the cursor image included in the captured image captured by the imaging means and transmitting cursor data representing the cursor image as the image recognition result to the information display device;
Cursor data receiving means for receiving cursor data of a cursor image to be newly displayed from the information display device;
Second image generating means for generating a display image by synthesizing a new cursor image with the captured image based on the captured image captured by the imaging means and the cursor data received by the cursor data receiving means. When,
An operation terminal comprising: second display means for displaying the display image generated by the second image generation means.
前記画像生成手段によって生成される表示画像を表示する表示画面と、請求項1記載のユーザインタフェース装置と
を備えることを特徴とするデジタルテレビ装置。
A digital television device comprising: a display screen for displaying a display image generated by the image generation means; and the user interface device according to claim 1.
前記画像撮像装置と、請求項2記載のユーザインタフェース装置と
を備えることを特徴とする携帯電話端末。
A mobile phone terminal comprising: the image pickup device; and the user interface device according to claim 2.
表示画面上に表示されるカーソル画像を画像撮像装置が撮影して得られる撮像画像の画像認識結果に基づいて、前記カーソル画像を含む新たな画像を表示させるユーザインタフェース装置ためのプログラムであって、コンピュータを
表示画面に表示させる表示画像を生成する画像生成手段と、所定の時間周期で繰り返し変化する複数種類の1つのカーソル画像を前記画像生成手段によって前記表示画像上に合成させるカーソル表示手段と、複数種類の前記カーソル画像と、それぞれの前記カーソル画像が表示される表示画像を特定するための画像IDとを予め対応付けて記憶する画像ID記憶手段と、前記撮像画像に含まれる前記カーソル画像を画像認識し、前記画像ID記憶手段の記憶内容に基づいて、撮像された前記カーソル画像の画像IDを、認識された前記カーソル画像から特定するカーソル認識手段と、撮像された前記カーソル画像の前記表示画面上の位置座標を算出し、算出された前記位置座標を、特定された前記画像IDと対応付けて記憶するカーソル座標記憶手段と、前記カーソル認識手段による前記認識結果と、前記カーソル座標記憶手段が記憶している前記位置座標とから、前記画像撮像装置が撮像した前記表示画像と、前記表示画像上の前記画像撮像装置が現在指し示している位置を示す指示座標とを推定する位置推定手段として機能させ、前記カーソル表示手段が、新たな画像IDに対応する新たなカーソル画像を前記画像ID記憶手段から読み出し、前記新たなカーソル画像が、前記位置推定手段によって推定された前記指示座標に表示されるように、前記画像生成手段に前記カーソル画像を合成させるプログラム。
A program for a user interface device that displays a new image including the cursor image on the basis of an image recognition result of a captured image obtained by the image capturing device capturing a cursor image displayed on a display screen, Image generating means for generating a display image for displaying a computer on a display screen, cursor display means for combining a plurality of types of one cursor image that changes repeatedly at a predetermined time period on the display image by the image generating means, Image ID storage means for storing in advance a plurality of types of cursor images and image IDs for specifying display images on which the cursor images are displayed, and the cursor image included in the captured image. An image of the cursor image that is image-recognized and imaged based on the stored contents of the image ID storage means Cursor recognition means for identifying an ID from the recognized cursor image; calculating position coordinates on the display screen of the captured cursor image; and calculating the position coordinates as the identified image ID The display image picked up by the image pickup device from the cursor coordinate storage means stored in association, the recognition result by the cursor recognition means, and the position coordinates stored in the cursor coordinate storage means, It functions as a position estimation unit that estimates a pointed coordinate indicating a position that the image capturing device currently points on a display image, and the cursor display unit displays a new cursor image corresponding to a new image ID. Read from the storage means, so that the new cursor image is displayed at the indicated coordinates estimated by the position estimation means, Program for synthesizing the cursor image to the serial image generating means.
表示画面上に表示されるカーソル画像を画像撮像装置が撮影して得られる撮像画像の画像認識結果に基づいて、前記カーソル画像を含む新たな画像を表示させる集積回路であって、
表示画面に表示させる表示画像を生成する画像生成手段と、
所定の時間周期で繰り返し変化する複数種類の1つのカーソル画像を前記画像生成手段によって前記表示画像上に合成させるカーソル表示手段と、
複数種類の前記カーソル画像と、それぞれの前記カーソル画像が表示される表示画像を特定するための画像IDとを予め対応付けて記憶する画像ID記憶手段と、
前記撮像画像に含まれる前記カーソル画像を画像認識し、前記画像ID記憶手段の記憶内容に基づいて、撮像された前記カーソル画像の画像IDを、認識された前記カーソル画像から特定するカーソル認識手段と、
撮像された前記カーソル画像の前記表示画面上の位置座標を算出し、算出された前記位置座標を、特定された前記画像IDと対応付けて記憶するカーソル座標記憶手段と、
前記カーソル認識手段による前記認識結果と、前記カーソル座標記憶手段が記憶している前記位置座標とから、前記画像撮像装置が撮像した前記表示画像と、前記表示画像上の前記画像撮像装置が現在指し示している位置を示す指示座標とを推定する位置推定手段とを備え、
前記カーソル表示手段は、新たな画像IDに対応する新たなカーソル画像を前記画像ID記憶手段から読み出し、前記新たなカーソル画像が、前記位置推定手段によって推定された前記指示座標に表示されるように、前記画像生成手段に前記カーソル画像を合成させる
ことを特徴とする集積回路。
An integrated circuit that displays a new image including the cursor image based on an image recognition result of a captured image obtained by the image capturing device capturing a cursor image displayed on a display screen;
Image generating means for generating a display image to be displayed on the display screen;
Cursor display means for synthesizing a plurality of types of one cursor image that repeatedly changes at a predetermined time period on the display image by the image generation means;
Image ID storage means for storing a plurality of types of cursor images and image IDs for specifying display images on which the cursor images are displayed in association with each other;
Cursor recognition means for recognizing the cursor image included in the captured image and identifying the image ID of the captured cursor image from the recognized cursor image based on the stored contents of the image ID storage means; ,
Cursor coordinate storage means for calculating a position coordinate on the display screen of the captured cursor image, and storing the calculated position coordinate in association with the specified image ID;
The display image picked up by the image pickup device and the image pickup device on the display image currently indicate from the recognition result by the cursor recognition means and the position coordinates stored in the cursor coordinate storage means. Position estimation means for estimating the indicated coordinates indicating the current position,
The cursor display means reads out a new cursor image corresponding to a new image ID from the image ID storage means, and displays the new cursor image at the indicated coordinates estimated by the position estimation means. An integrated circuit characterized by causing the image generation means to synthesize the cursor image.
JP2008048800A 2008-02-28 2008-02-28 User interface device Pending JP2009205556A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008048800A JP2009205556A (en) 2008-02-28 2008-02-28 User interface device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008048800A JP2009205556A (en) 2008-02-28 2008-02-28 User interface device

Publications (1)

Publication Number Publication Date
JP2009205556A true JP2009205556A (en) 2009-09-10

Family

ID=41147719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008048800A Pending JP2009205556A (en) 2008-02-28 2008-02-28 User interface device

Country Status (1)

Country Link
JP (1) JP2009205556A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011164666A (en) * 2010-02-04 2011-08-25 Sony Corp Communication control device, communication control method and program
JP2012145981A (en) * 2011-01-06 2012-08-02 Nintendo Co Ltd Image processing program, image processing apparatus, image processing system, and image processing method
WO2012169106A1 (en) * 2011-06-10 2012-12-13 Necカシオモバイルコミュニケーションズ株式会社 Input device and method for controlling touch panel
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US8512152B2 (en) 2010-06-11 2013-08-20 Nintendo Co., Ltd. Hand-held game apparatus and housing part of the same
JP2014011654A (en) * 2012-06-29 2014-01-20 Sony Computer Entertainment Inc Image analysis device, image analysis method, and image analysis system
US8633947B2 (en) 2010-06-02 2014-01-21 Nintendo Co., Ltd. Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
WO2014098206A1 (en) * 2012-12-21 2014-06-26 京セラ株式会社 Mobile terminal, and cursor display control method
US8780183B2 (en) 2010-06-11 2014-07-15 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
US8894486B2 (en) 2010-01-14 2014-11-25 Nintendo Co., Ltd. Handheld information processing apparatus and handheld game apparatus
JP2015059999A (en) * 2013-09-17 2015-03-30 日本電信電話株式会社 Video display device and video display program
US9128293B2 (en) 2010-01-14 2015-09-08 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US9278281B2 (en) 2010-09-27 2016-03-08 Nintendo Co., Ltd. Computer-readable storage medium, information processing apparatus, information processing system, and information processing method
US10506218B2 (en) 2010-03-12 2019-12-10 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US10796153B2 (en) 2018-03-12 2020-10-06 International Business Machines Corporation System for maintenance and repair using augmented reality

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9128293B2 (en) 2010-01-14 2015-09-08 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US8894486B2 (en) 2010-01-14 2014-11-25 Nintendo Co., Ltd. Handheld information processing apparatus and handheld game apparatus
JP2011164666A (en) * 2010-02-04 2011-08-25 Sony Corp Communication control device, communication control method and program
US10764565B2 (en) 2010-03-12 2020-09-01 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US10506218B2 (en) 2010-03-12 2019-12-10 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US8633947B2 (en) 2010-06-02 2014-01-21 Nintendo Co., Ltd. Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
US9282319B2 (en) 2010-06-02 2016-03-08 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US8512152B2 (en) 2010-06-11 2013-08-20 Nintendo Co., Ltd. Hand-held game apparatus and housing part of the same
US10015473B2 (en) 2010-06-11 2018-07-03 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method
US8780183B2 (en) 2010-06-11 2014-07-15 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method
US9278281B2 (en) 2010-09-27 2016-03-08 Nintendo Co., Ltd. Computer-readable storage medium, information processing apparatus, information processing system, and information processing method
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
JP2012145981A (en) * 2011-01-06 2012-08-02 Nintendo Co Ltd Image processing program, image processing apparatus, image processing system, and image processing method
WO2012169106A1 (en) * 2011-06-10 2012-12-13 Necカシオモバイルコミュニケーションズ株式会社 Input device and method for controlling touch panel
JP2014011654A (en) * 2012-06-29 2014-01-20 Sony Computer Entertainment Inc Image analysis device, image analysis method, and image analysis system
JP2014123243A (en) * 2012-12-21 2014-07-03 Kyocera Corp Mobile terminal, cursor display control program, cursor display control method, cursor generation control program, cursor generation control method, icon display program, and icon display method
WO2014098206A1 (en) * 2012-12-21 2014-06-26 京セラ株式会社 Mobile terminal, and cursor display control method
US9671878B2 (en) 2012-12-21 2017-06-06 Kyocera Corporation Mobile terminal and cursor display control method
JP2015059999A (en) * 2013-09-17 2015-03-30 日本電信電話株式会社 Video display device and video display program
US10796153B2 (en) 2018-03-12 2020-10-06 International Business Machines Corporation System for maintenance and repair using augmented reality

Similar Documents

Publication Publication Date Title
JP2009205556A (en) User interface device
US8896535B2 (en) Image processing apparatus and method, and program therefor
CN114049459B (en) Mobile device, information processing method, and non-transitory computer-readable medium
JP3926837B2 (en) Display control method and apparatus, program, and portable device
US9824497B2 (en) Information processing apparatus, information processing system, and information processing method
US9286722B2 (en) Information processing apparatus, display control method, and program
US20160357491A1 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
CN110456907A (en) Virtual screen control method, device, terminal equipment and storage medium
EP2512141A1 (en) System and method of user interaction in augmented reality
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
JP7499819B2 (en) Head-mounted display
JP2002196855A (en) Image processor, image processing method, recording medium, computer program and semiconductor device
CN106898049A (en) A kind of spatial match method and system for mixed reality equipment
CN111399630B (en) Virtual content interaction method, device, terminal device and storage medium
JPWO2019130374A1 (en) Terminal device, system, program and method
EP4016464A1 (en) Apparatus, system, method, and carrier means
CN112351325B (en) Gesture-based display terminal control method, terminal and readable storage medium
US11043019B2 (en) Method of displaying a wide-format augmented reality object
JP6137910B2 (en) Information processing apparatus, information processing method, and program
TW201337644A (en) Information processing device, information processing method, and recording medium
JP6971788B2 (en) Screen display control method and screen display control system
US11449135B2 (en) Terminal apparatus and method for controlling terminal apparatus
CN111818326A (en) Image processing method, device, system, terminal device and storage medium
JP2015184986A (en) Mixed reality sharing device
JP6765846B2 (en) Information processing equipment, information processing methods, and programs