JP2003323239A - Information processing apparatus and information processing method, storage medium, and computer program - Google Patents
Information processing apparatus and information processing method, storage medium, and computer programInfo
- Publication number
- JP2003323239A JP2003323239A JP2002132228A JP2002132228A JP2003323239A JP 2003323239 A JP2003323239 A JP 2003323239A JP 2002132228 A JP2002132228 A JP 2002132228A JP 2002132228 A JP2002132228 A JP 2002132228A JP 2003323239 A JP2003323239 A JP 2003323239A
- Authority
- JP
- Japan
- Prior art keywords
- image
- identification information
- information
- input
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
Abstract
(57)【要約】
【課題】 視認性の識別情報が配置された実世界風景の
撮影画像から所望の識別情報を選択するための好適な操
作環境を提供する。
【解決手段】 情報端末上には「画像&ID記憶部」と
「キャプチャ・ボタン」が配設されている。そして、ユ
ーザが所望の光ビーコンの方に携帯端末を向けて、携帯
端末の表示画面に光ビーコンが認識されたことが示され
たときに、「キャプチャ・ボタン」を押して、画像とI
D(すなわち、光ビーコンから受信した情報)を「画像
&ID記憶部」に記録する。その後、このキャプチャ画
像を画面表示したときに、ユーザは楽な姿勢で光ビーコ
ンの選択をすることができる。
(57) [Problem] To provide a suitable operation environment for selecting desired identification information from a captured image of a real world scene in which identification information of visibility is arranged. SOLUTION: An "image & ID storage unit" and a "capture button" are provided on the information terminal. Then, when the user points the mobile terminal toward the desired optical beacon and the display screen of the mobile terminal indicates that the optical beacon has been recognized, the user presses the “capture button” to display the image and I
D (that is, information received from the optical beacon) is recorded in the “image & ID storage unit”. Thereafter, when the captured image is displayed on the screen, the user can select an optical beacon in a comfortable posture.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、ユーザ操作に応答
して所定の処理を起動する情報処理装置及び情報処理方
法、記憶媒体、並びにコンピュータ・プログラムに係
り、特に、表示画面を介してユーザの選択操作を受容し
て所定の処理を起動する情報処理装置及び情報処理方
法、記憶媒体、並びにコンピュータ・プログラムに関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus and an information processing method for starting a predetermined process in response to a user operation, a storage medium, and a computer program, and more particularly to a user's operation via a display screen. The present invention relates to an information processing device and an information processing method for receiving a selection operation and activating a predetermined process, a storage medium, and a computer program.
【0002】さらに詳しくは、本発明は、実世界風景の
撮影画像上でのユーザ操作環境を提供する情報処理装置
及び情報処理方法、記憶媒体、並びにコンピュータ・プ
ログラムに係り、特に、視認性の識別情報が配置された
実世界風景の撮影画像から所望の識別情報を選択するた
めの操作環境を提供する情報処理装置及び情報処理方
法、記憶媒体、並びにコンピュータ・プログラムに関す
る。More specifically, the present invention relates to an information processing apparatus and an information processing method for providing a user operation environment on a photographed image of a real world landscape, a storage medium, and a computer program, and in particular, the identification of visibility. The present invention relates to an information processing apparatus and an information processing method, a storage medium, and a computer program that provide an operation environment for selecting desired identification information from a photographed image of a real world landscape in which information is arranged.
【0003】[0003]
【従来の技術】情報処理技術や情報通信技術が高度に発
達した現代においては、パーソナル・コンピュータや携
帯情報端末を始めとする情報機器がオフィスや家庭内な
どの実世界上のいたるところに遍在する。このような環
境下では、機器どうしを接続して、いつでもどこでも欲
しい情報を入手する「ユビキタス(Ubiquitous)・コン
ピューティング」や、実世界における状況(実世界の事
物やユーザの位置など)を積極的に利用した拡張現実シ
ステム(Augmented Reality:AR)の実現が期待され
る。2. Description of the Related Art In the modern age of advanced information processing technology and information communication technology, information devices such as personal computers and personal digital assistants are ubiquitous in the real world such as offices and homes. To do. In such an environment, actively connect to devices such as "Ubiquitous computing" that connects devices to obtain desired information anytime and anywhere, and situations in the real world (such as real-world things and user positions). It is expected that the augmented reality system (Augmented Reality: AR) used for
【0004】ユビキタス・コンピューティングの概念
は、人がどこに移動しても利用できるコンピュータの環
境が同じであることである。すなわち、「いつでもどこ
でも」なのだから、究極のユビキタス・コンピューティ
ングは、必ずしもコンピュータやPDA(Personal Dig
ital Assistant)や携帯電話機などの情報端末を必ずし
も必要とはしない。The concept of ubiquitous computing is that the environment of computers that can be used regardless of where a person moves is the same. In other words, because it is "anytime, anywhere", the ultimate ubiquitous computing is not necessarily a computer or PDA (Personal Dig
Ital Assistant) and information terminals such as mobile phones are not necessarily required.
【0005】ところが、ネットワーク上でデータ転送先
となるコンピュータや周辺機器(すなわちユーザ端末な
どのターゲット)を指定したり、あるいはユーザの位置
や実世界オブジェクトに関連した情報など実世界状況を
入手しようとすると、すぐ目の前にある相手であって
も、その名前(若しくは、機器固有のIDやネットワー
ク・アドレス、ホスト・ネーム、URL/URIなどの
資源識別子)を知る必要がある。すなわち、ユーザ操作
に関して言えば、間接的な形式でしかコンピュータ間の
連携がなされておらず、直感性にやや欠ける。However, it is attempted to specify a computer or a peripheral device (that is, a target such as a user terminal) as a data transfer destination on the network, or to obtain a real world situation such as information related to the position of the user or a real world object. Then, it is necessary to know the name (or the device-specific ID, the network address, the host name, the resource identifier such as the URL / URI) of the person in front of him. That is, in terms of user operations, the computers are linked only in an indirect form, and the intuition is somewhat lacking.
【0006】このような煩雑な手続を省略して、ユーザ
の識別情報を転送したり、ユーザの位置などの実世界状
況を取得するための技術として、「サイバーコード(C
ybercode)」などのビジュアルコードやRFタ
グのような、実世界コンピューティングを利用した手法
が提案されている。これらの手法によれば、ユーザは意
識してネットワークにアクセスする必要はなく、自動的
に拾われたオブジェクトのIDなどから、オブジェクト
に関連する情報を獲得することができる。As a technique for transferring the user's identification information and acquiring the real world situation such as the user's position by omitting such a complicated procedure, "Cyber Code (C
A method using real-world computing such as a visual code such as "ybercode)" or an RF tag has been proposed. According to these methods, the user does not need to consciously access the network, and the information related to the object can be acquired from the ID of the object automatically picked up.
【0007】例えば、ビジュアルコードやRFタグの識
別情報に対してあらかじめアプリケーションなどの機能
や、機器ID、ネットワーク・アドレス、ホスト・ネー
ム、URLやその他のオブジェクト関連情報を登録して
おく。そして、カメラの撮影画像からサイバーコードを
認識したことに応答して、コンピュータは、登録された
アプリケーションを実行させたり(例えば「メールを起
動する」など)、認識されたIDを基に相手のネットワ
ーク・アドレスを探索して自動的に接続を果たしたり、
認識されたURLを基に資源アクセスを行ったりするこ
とができる。For example, a function such as an application, a device ID, a network address, a host name, a URL, and other object-related information are registered in advance for the visual code and the identification information of the RF tag. Then, in response to recognizing the cyber code from the image captured by the camera, the computer executes the registered application (for example, “activates mail”), or based on the recognized ID, the network of the other party.・ Search for an address and automatically connect,
Resource access can be performed based on the recognized URL.
【0008】しかしながら、ビジュアルコードのような
視認性の識別情報を用いた場合、距離に応じてコードの
大きさが変化する。すなわち、オブジェクトが遠く離れ
るとコードが小さくなるので、遠くのものを認識するに
は大きなパターンを持つコードを形成する必要がある。
言い換えれば、この手法に基づく情報伝達手法は距離に
対するロバスト性に欠ける。例えば、遠くにあるビルを
認識するためには、ビルに巨大なコードを貼り付ける必
要があり、現実的でない。However, when the visibility identification information such as the visual code is used, the size of the code changes according to the distance. That is, since the code becomes smaller as the object is far away, it is necessary to form a code having a large pattern in order to recognize a far object.
In other words, the information transmission method based on this method lacks robustness against distance. For example, in order to recognize a building in the distance, it is necessary to paste a huge code into the building, which is not realistic.
【0009】また、RFタグの場合、ユーザはRFタグ
をタグ読み取り装置に向けたり接触させたりしなければ
ならない。すなわち、至近距離の物体のみ認識が可能で
あり、遠くのものを認識することはできない。Further, in the case of the RF tag, the user has to point or contact the RF tag to the tag reading device. That is, it is possible to recognize only an object at a close range and not a far object.
【0010】そこで、本出願人に既に譲渡されている特
願2002−57836号明細書には、LEDの点滅パ
ターンなどからなる光学的信号をデータ伝送媒体として
用いて、距離に対してロバストなデータ通信システムが
提案されている。例えば室内の家具や電化製品あるいは
屋外のビルなどの実世界オブジェクトには、所定の物理
的な配置がなされた2以上のLEDなどの発光部からな
る送信機が設置され、各発光部は所定ビット長の送信デ
ータを表す点滅パターンで明滅することによりデータ送
信が行なわれる。一方の受信機は、2次元受光面からな
る受光部を備え、受光された点滅パターンを基に送信デ
ータをデコードするとともに、2次元受光面上での点滅
位置を基にオブジェクトの空間情報を認識する。Therefore, in Japanese Patent Application No. 2002-57836 already assigned to the present applicant, an optical signal including a blinking pattern of LEDs is used as a data transmission medium, and data robust against distance is used. Communication systems have been proposed. For example, in real-world objects such as indoor furniture, appliances, and outdoor buildings, a transmitter including two or more light emitting units such as LEDs arranged in a predetermined physical arrangement is installed, and each light emitting unit has a predetermined bit. Data transmission is performed by blinking with a blinking pattern representing long transmission data. One of the receivers is equipped with a light receiving unit consisting of a two-dimensional light receiving surface, decodes transmission data based on the received blinking pattern, and recognizes spatial information of the object based on the blinking position on the two-dimensional light receiving surface. To do.
【0011】すなわち、このような光学的信号を利用し
たデータ通信システムによれば、実世界上のオブジェク
トからIDなどの情報を入手すると同時にオブジェクト
の空間的な位置を同時に認識することができ、ユビキタ
ス・コンピューティングを構築するための有効な手段と
なり得る。That is, according to the data communication system using such an optical signal, it is possible to simultaneously obtain information such as an ID from an object in the real world and at the same time recognize the spatial position of the object. -It can be an effective way to build computing.
【0012】[0012]
【発明が解決しようとする課題】上述の光学的信号を利
用したデータ通信システムを拡張現実感システムに適用
すれば、ユーザの位置などの実世界情報を利用したサー
ビスを提供することができる。この場合、システムはユ
ーザの近傍や視界中にある実世界の事物に応じた情報を
光学的信号によって提示することによって、ネットワー
ク上にある膨大な情報を利用して日常生活のあらゆる局
面を支援することができる。ユーザは携帯端末を保持す
るだけで拡張現実感システムを利用することができる。
例えば、ショッピング・モールでカメラ付き携帯端末を
かざしてCDショップを訪ねると、お薦めの新譜が端末
上で表示される。また、レストランの看板を見ると、料
理の感想が表示される。If the data communication system using the optical signal described above is applied to an augmented reality system, a service using real world information such as the position of the user can be provided. In this case, the system supports all aspects of daily life by utilizing the vast amount of information on the network by presenting information according to real-world things in the vicinity of the user or in the field of view by optical signals. be able to. The user can use the augmented reality system simply by holding the mobile terminal.
For example, when a user visits a CD shop by holding a camera-equipped mobile terminal in a shopping mall, a recommended new song is displayed on the terminal. Also, looking at the signboard of the restaurant, the impression of the food is displayed.
【0013】このような適用例においては、光学的信号
は、URL/URIやIPアドレスなど、情報空間から
情報コンテンツを引き出すための資源識別子である。ま
た、カメラで撮影した画像中に存在する光学的信号は、
所望の情報コンテンツの格納場所へ探索するためのリン
ク情報若しくはアンカーとしての役割を持っている。In such an application, the optical signal is a resource identifier, such as a URL / URI or IP address, for extracting information content from the information space. Also, the optical signal present in the image taken by the camera is
It has a role as link information or an anchor for searching the storage location of the desired information content.
【0014】ところが、光学的信号をカメラで捉えて、
リンク探索あるいは光学的信号に割り当てられているそ
の他の処理を起動するとき、ユーザの使い勝手の面で問
題がある。However, by capturing the optical signal with a camera,
There is a usability problem for the user when invoking a link search or other process assigned to an optical signal.
【0015】このような場合、ユーザはカメラ付き情報
端末をかざして、所望の光学的信号を検出したときに一
定の選択動作を端末上で行なうことになる。例えば、カ
メラを所望の実世界オブジェクト(例えばビルの看板な
ど)にかざした姿勢で選択することができればよいが、
手を伸ばしてオブジェクトに向けている姿勢のままで
は、実際にどの光学的信号を検出したかを確認すること
はできない。何故なら、端末の表示画面を見易い場所
(例えば体の前)に端末を移動させると、光学的信号は
もはやカメラの視野外に消え去ってしまうからである。In such a case, the user holds the camera-equipped information terminal and performs a certain selection operation on the terminal when a desired optical signal is detected. For example, it suffices if the camera can be selected in a posture holding a desired real-world object (for example, a billboard of a building).
It is impossible to confirm which optical signal is actually detected when the hand is extended and the object is directed toward the object. This is because when the terminal is moved to a place where the display screen of the terminal can be easily seen (for example, in front of the body), the optical signal disappears outside the field of view of the camera.
【0016】また、ユーザがカメラ付き情報端末を所望
の視線方向にかざして撮影したとき、同じ画像フレーム
内に複数の光学的信号を検出することもある。このよう
な場合、撮影画像の中から所望の光学的信号を選択、あ
るいは選択確定操作しなければならないが、カメラをか
ざした姿勢では複雑な端末操作を行なうことはできな
い。また、端末画面を見易い場所に移動させると、光学
的信号は画面フレームから振り切れてしまうので、正確
に選択できなくなる。Further, when the user holds the camera-equipped information terminal in a desired line-of-sight direction to take a picture, a plurality of optical signals may be detected in the same image frame. In such a case, it is necessary to select a desired optical signal from the photographed image or perform a selection confirmation operation, but a complicated terminal operation cannot be performed in the posture of holding the camera. Also, if the terminal screen is moved to a place where it is easy to see, the optical signal will be shaken off the screen frame, and it will not be possible to select it accurately.
【0017】本発明は、上述したような技術的課題を鑑
みたものであり、その主な目的は、表示画面を介してユ
ーザの選択操作を受容して所定の処理を好適に起動する
ことができる、優れた情報処理装置及び情報処理方法、
記憶媒体、並びにコンピュータ・プログラムを提供する
ことにある。The present invention has been made in view of the above technical problems, and its main purpose is to accept a user's selection operation via a display screen and suitably start a predetermined process. An excellent information processing apparatus and information processing method capable of
It is to provide a storage medium and a computer program.
【0018】本発明のさらなる目的は、実世界風景の撮
影画像上での好適なユーザ操作環境を提供することがで
きる、優れた情報処理装置及び情報処理方法、記憶媒
体、並びにコンピュータ・プログラムを提供することに
ある。A further object of the present invention is to provide an excellent information processing apparatus and information processing method, a storage medium, and a computer program that can provide a suitable user operation environment on a photographed image of a real world landscape. To do.
【0019】本発明のさらなる目的は、視認性の識別情
報が配置された実世界風景の撮影画像から所望の識別情
報を選択するための好適な操作環境を提供することがで
きる、優れた情報処理装置及び情報処理方法、記憶媒
体、並びにコンピュータ・プログラムを提供することに
ある。Another object of the present invention is to provide excellent information processing that can provide a suitable operating environment for selecting desired identification information from a photographed image of a real world landscape in which visibility identification information is arranged. An object is to provide an apparatus, an information processing method, a storage medium, and a computer program.
【0020】[0020]
【課題を解決するための手段及び作用】本発明は、上記
課題を参酌してなされたものであり、その第1の側面
は、ユーザ操作に応答して所定の処理を起動する情報処
理装置又は情報処理方法であって、視認性の識別情報を
含んだ実世界上の風景画像を入力する画像入力手段又は
ステップと、入力画像に含まれる視認性の識別情報を復
号化する復号化手段と、入力画像と復号化結果を関連付
けて保存する記憶手段又はステップと、前記記憶手段又
はステップで記憶された入力画像を表示する画像表示手
段又はステップと、前記画像表示手段又はステップの表
示画面上に出現する視認性の識別情報に対するユーザ選
択操作を受容するユーザ入力手段又はステップと、ユー
ザが選択した視認性の識別情報に対応する処理サービス
を起動するサービス実行手段又はステップと、を具備す
ることを特徴とする情報処理装置又は情報処理方法であ
る。The present invention has been made in consideration of the above problems, and a first aspect thereof is an information processing apparatus for activating a predetermined process in response to a user operation, or An information processing method, an image input means or step for inputting a landscape image in the real world including visibility identification information, and a decoding means for decoding the visibility identification information included in the input image, Storage means or step for storing the input image and the decoding result in association with each other, image display means or step for displaying the input image stored in the storage means or step, and appearance on the display screen of the image display means or step User input means or step for accepting a user selection operation for the visibility identification information to be performed, and a service for activating a processing service corresponding to the visibility identification information selected by the user An information processing apparatus or the information processing method characterized by comprising a row unit or step.
【0021】ここで、前記視認性の識別情報は、例え
ば、データを構成するバイト列を光学的に分別可能な1
以上のパターンとして表示されるが、勿論、ビジュアル
コードなどその他の形態の視認性データであってもよ
い。Here, the visibility identification information is, for example, 1 which is capable of optically discriminating byte strings forming data.
Although displayed as the above pattern, of course, other forms of visibility data such as a visual code may be used.
【0022】本発明の第1の側面に係る情報処理装置又
は情報処理方法は、光学的信号をデータ伝送媒体とする
データ通信を利用した拡張現実感システムに適用するこ
とができる。拡張現実感システムでは、ユーザの近傍や
視界中にある実世界の事物に応じた情報を光学的信号に
よって提示することによって、ネットワーク上にある膨
大な情報を利用して日常生活のあらゆる局面を支援す
る。そして、ユーザはカメラなどの光学的信号を検出す
る機能を装備した情報端末を保持するだけで、拡張現実
感システムを利用することができる。The information processing apparatus or the information processing method according to the first aspect of the present invention can be applied to an augmented reality system using data communication using an optical signal as a data transmission medium. The augmented reality system supports all aspects of daily life by utilizing the vast amount of information on the network by presenting information according to real world objects in the vicinity of the user or in the field of view by using optical signals. To do. Then, the user can use the augmented reality system only by holding an information terminal equipped with a function of detecting an optical signal, such as a camera.
【0023】このような場合、ユーザはカメラ付き情報
端末をかざして、所望の光学的信号を検出したときに一
定の選択動作を端末上で行なうことになる。ところが、
カメラを所望の実世界オブジェクト(例えばビルの看板
など)にかざした姿勢では、カメラの撮影画像を確認す
ることができない。また、端末の表示画面を見ようとす
ると、光学的信号はもはやカメラの視野外に消え去って
しまう。同じ撮影画像の中に複数の光学的信号を検出し
た場合、撮影画像を見ながらでないと所望の光学的信号
を正確に選択できない。In such a case, the user holds up the camera-equipped information terminal and carries out a certain selection operation on the terminal when a desired optical signal is detected. However,
In a posture in which the camera is held over a desired real-world object (for example, a billboard of a building), it is not possible to confirm a captured image of the camera. Also, when trying to view the display screen of the terminal, the optical signal is no longer visible outside the field of view of the camera. When a plurality of optical signals are detected in the same captured image, a desired optical signal cannot be accurately selected without looking at the captured image.
【0024】これに対し、本発明の第1の側面に係る情
報処理装置又は情報処理方法によれば、ユーザは、所望
の実世界風景画像をカメラなどで捕捉して、この入力画
像に含まれる視認性の識別情報が検出されて、復号化さ
れた識別情報は入力画像と対応付けて記録される。この
ようにして実世界風景の撮影を終えると、ユーザは、改
めて画面表示されている撮影画像を利用して、楽な姿勢
で視認性識別情報を取捨選択して、所望の処理サービス
を起動することが可能である。On the other hand, according to the information processing apparatus or the information processing method according to the first aspect of the present invention, the user captures a desired real world landscape image with a camera or the like and includes it in the input image. The visibility identification information is detected, and the decoded identification information is recorded in association with the input image. When the photographing of the real world landscape is completed in this way, the user uses the photographed image displayed on the screen again to select the visibility identification information in a comfortable posture and activate the desired processing service. It is possible.
【0025】また、あちらこちらで、実世界風景を何枚
も記録しておいて、時間のあるときにゆっくりと撮影画
像を眺めて所望の識別情報を用いて処理サービスを起動
するといった使い方も可能である。It is also possible to record many real-world scenes here and there, slowly view the photographed image when time is available, and activate the processing service by using the desired identification information. Is.
【0026】また、モニタに設置された視認性の識別情
報がモニタの内容に従って識別情報のコードが変化する
ような場合には、ユーザが識別情報を確認し選択してい
る間に、情報の内容が変わってしまうことも考えられ、
ユーザにとってはとても使い勝手が悪い。これに対し、
本発明によれば、こういった場合にも、画像を撮影して
おくことで簡単に識別情報を記録することができるの
で、視認性の識別情報を確実に取得することでき、その
効力は絶大である。In the case where the identification information code of the visibility identification information installed on the monitor changes according to the content of the monitor, the content of the information is displayed while the user confirms and selects the identification information. May change,
It is very inconvenient for the user. In contrast,
According to the present invention, even in such a case, since the identification information can be easily recorded by capturing an image, it is possible to surely obtain the identification information of the visibility, and its effectiveness is great. Is.
【0027】また、本発明の第2の側面は、ユーザ操作
に応答した所定の動作を起動するための処理をコンピュ
ータ・システム上で実行するように記述されたコンピュ
ータ・ソフトウェアをコンピュータ可読形式で物理的に
格納した記憶媒体であって、前記コンピュータ・ソフト
ウェアは、視認性の識別情報を含んだ実世界上の風景画
像を入力する画像入力ステップと、入力画像に含まれる
視認性の識別情報を復号化する復号化ステップと、入力
画像と復号化結果を関連付けて保存する記憶ステップ
と、前記記憶ステップにおいて記憶された入力画像を表
示する画像表示ステップと、前記画像表示ステップにお
いて表示される画面上に出現する視認性の識別情報に対
するユーザ選択操作を受容するユーザ入力ステップと、
ユーザが選択した視認性の識別情報に対応する処理サー
ビスを起動するサービス実行ステップと、を具備するこ
とを特徴とする記憶媒体である。The second aspect of the present invention is a computer-readable physical form of computer software written to execute a process for activating a predetermined operation in response to a user operation on a computer system. Computer-readable storage medium, the computer software includes an image input step of inputting a real-world landscape image including visibility identification information, and decoding the visibility identification information included in the input image. A decoding step of converting the input image and a decoding result in association with each other, an image display step of displaying the input image stored in the storage step, and a screen displayed in the image display step. A user input step that accepts a user selection operation for the visible identification information that appears,
A service execution step of activating a processing service corresponding to the visibility identification information selected by the user, and the storage medium.
【0028】本発明の第2の側面に係る記憶媒体は、例
えば、さまざまなプログラム・コードを実行可能な汎用
コンピュータ・システムに対して、コンピュータ・ソフ
トウェアをコンピュータ可読な形式で提供する媒体であ
る。このような媒体は、例えば、DVD(Digital Vers
atile Disc)やCD(Compact Disc)、FD(Flexible
Disk)、MO(Magneto-Optical disc)などの着脱自
在で可搬性の記憶媒体である。あるいは、ネットワーク
(ネットワークは無線、有線の区別を問わない)などの
伝送媒体などを経由してコンピュータ・ソフトウェアを
特定のコンピュータ・システムに提供することも技術的
に可能である。The storage medium according to the second aspect of the present invention is a medium for providing computer software in a computer-readable format to a general-purpose computer system capable of executing various program codes, for example. Such a medium is, for example, a DVD (Digital Vers
atile Disc), CD (Compact Disc), FD (Flexible Disc)
Disk), MO (Magneto-Optical disc), and other removable storage media. Alternatively, it is technically possible to provide computer software to a specific computer system via a transmission medium such as a network (whether the network is wireless or wired).
【0029】また、本発明の第2の側面に係る記憶媒体
は、コンピュータ・システム上で所定のコンピュータ・
ソフトウェアの機能を実現するための、コンピュータ・
ソフトウェアと記憶媒体との構造上又は機能上の協働的
関係を定義したものである。換言すれば、本発明の第2
の側面に係る記憶媒体を介して所定のコンピュータ・ソ
フトウェアをコンピュータ・システムにインストールす
ることによって、コンピュータ・システム上では協働的
作用が発揮され、本発明の第1の側面に係る情報処理装
置又は情報処理方法と同様の作用効果を得ることができ
る。Further, the storage medium according to the second aspect of the present invention is a computer system in which a predetermined computer
A computer for realizing software functions
It defines a structural or functional collaborative relationship between software and a storage medium. In other words, the second aspect of the present invention
By installing the predetermined computer software in the computer system via the storage medium according to the first aspect, a cooperative action is exerted on the computer system and the information processing apparatus according to the first aspect of the present invention. The same effect as that of the information processing method can be obtained.
【0030】また、本発明の第3の側面は、ユーザ操作
に応答した所定の動作を起動するための処理をコンピュ
ータ・システム上で実行するようにコンピュータ可読形
式で記述されたコンピュータ・プログラムであって、視
認性の識別情報を含んだ実世界上の風景画像を入力する
画像入力ステップと、入力画像に含まれる視認性の識別
情報を復号化する復号化ステップと、入力画像と復号化
結果を関連付けて保存する記憶ステップと、前記記憶ス
テップにおいて記憶された入力画像を表示する画像表示
ステップと、前記画像表示ステップにおいて表示される
画面上に出現する視認性の識別情報に対するユーザ選択
操作を受容するユーザ入力ステップと、ユーザが選択し
た視認性の識別情報に対応する処理サービスを起動する
サービス実行ステップと、を具備することを特徴とする
コンピュータ・プログラムである。Further, a third aspect of the present invention is a computer program written in a computer-readable format so as to execute a process for activating a predetermined operation in response to a user operation on a computer system. The image input step of inputting a landscape image in the real world including the visibility identification information, the decoding step of decoding the visibility identification information included in the input image, and the input image and the decoding result. A storage step of storing the data in association with each other, an image display step of displaying the input image stored in the storage step, and a user selection operation for the visibility identification information appearing on the screen displayed in the image display step are accepted. The user input step and the service execution step that starts the processing service corresponding to the visibility identification information selected by the user. Is a computer program characterized by comprising the flop, the.
【0031】本発明の第3の側面に係るコンピュータ・
プログラムは、コンピュータ・システム上で所定の処理
を実現するようにコンピュータ可読形式で記述されたコ
ンピュータ・プログラムを定義したものである。換言す
れば、本発明の第3の側面に係るコンピュータ・プログ
ラムをコンピュータ・システムにインストールすること
によって、コンピュータ・システム上では協働的作用が
発揮され、本発明の第1の側面に係る情報処理装置又は
情報処理方法と同様の作用効果を得ることができる。A computer according to the third aspect of the present invention.
The program defines a computer program written in a computer-readable format so as to realize a predetermined process on a computer system. In other words, by installing the computer program according to the third aspect of the present invention in the computer system, a cooperative action is exerted on the computer system, and the information processing according to the first aspect of the present invention is performed. It is possible to obtain the same effect as that of the device or the information processing method.
【0032】本発明のさらに他の目的、特徴や利点は、
後述する本発明の実施形態や添付する図面に基づくより
詳細な説明によって明らかになるであろう。Further objects, features and advantages of the present invention are as follows.
It will be apparent from the embodiments of the present invention described later and the more detailed description based on the accompanying drawings.
【0033】[0033]
【発明の実施の形態】以下、図面を参照しながら本発明
の実施形態について詳解する。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below in detail with reference to the drawings.
【0034】A.データ通信システムの構成
本発明は、視認性の識別情報をカメラで撮影して認識す
ることによりデータ伝送が行なわれるというユビキタス
・ネットワークを利用して実現される。すなわち、実世
界上に存在する物理オブジェクトに対して複数の光学的
な識別情報を取り付けるとともに、これを2次元イメー
ジ・センサで撮影して画像処理・画像認識することによ
り、オブジェクトからの送信データを解釈する。 A. Configuration of Data Communication System The present invention is realized by utilizing a ubiquitous network in which data transmission is performed by recognizing visibility identification information with a camera. That is, a plurality of optical identification information is attached to a physical object existing in the real world, and a two-dimensional image sensor captures the image to perform image processing and image recognition, thereby transmitting data from the object. Interpret.
【0035】実世界オブジェクトに取り付ける光学的な
識別情報として、色の空間パターンに符号化されたビジ
ュアルコードの他に、LEDのような点滅する光源から
なる光学的信号を利用することができる。後者の場合、
時系列的な点滅パターンで構成される信号に符号化して
データを送信することにより、距離に対してロバストな
データ通信を行なうことができる。As the optical identification information attached to the real-world object, an optical signal composed of a blinking light source such as an LED can be used in addition to the visual code encoded in the color space pattern. In the latter case,
By encoding data into a signal composed of a time-series blinking pattern and transmitting the data, it is possible to perform data communication that is robust with respect to distance.
【0036】また、イメージ・センサは、例えばCMO
S(Complementary Metal Oxide Semiconductor)セン
サやCCD(Charge Coupled Device)センサなどのよ
うに、無数の受光素子すなわち画素が2次元アレイ上に
配置された構成であり、光学信号並びにその空間的情報
を全画素でデコードする。イメージ・センサは、普通の
カメラとしてシーンを撮影するとともに、そのイメージ
・センサの視界中に配置された光学的信号を長距離から
受信することができる。The image sensor is, for example, a CMO.
Like an S (Complementary Metal Oxide Semiconductor) sensor or CCD (Charge Coupled Device) sensor, it has a configuration in which a myriad of light-receiving elements, that is, pixels, are arranged in a two-dimensional array, and optical signals and their spatial information are stored in all pixels. Decode with. The image sensor can capture the scene as a normal camera, as well as receive optical signals located in the field of view of the image sensor from long distances.
【0037】まず、光学的信号をデータ伝送媒体として
用いたデータ通信システムの原理について説明する。First, the principle of a data communication system using an optical signal as a data transmission medium will be described.
【0038】図1には、光学的信号を使用するデータ通
信システム10の構成を模式的に示している。同図に示
すように、このデータ通信システム10は、実空間に散
在する各オブジェクトに設置された送信機20A,20
B,20C…と、ユーザが携行して用いる受信機50と
で構成される。FIG. 1 schematically shows the configuration of a data communication system 10 which uses optical signals. As shown in the figure, the data communication system 10 includes transmitters 20A, 20A installed in respective objects scattered in a real space.
B, 20C ... And a receiver 50 carried and used by the user.
【0039】送信機20は、送信データとしてのバイト
列を光学的に分別可能な1以上のパターンとして表示し
た光学的信号を送出する。一方の受信機50は、表示さ
れた光学的パターンを受光して、その受光画像を認識し
て、光学的信号が表わす点滅パターンを基に送信された
バイト列を算出するとともに、光学的信号の受光面上で
の検出位置を算出する。そして、バイト列と受光位置の
組み合わせに応じた処理サービスを実行する。The transmitter 20 transmits an optical signal in which a byte string as transmission data is displayed as one or more patterns capable of being optically separated. One of the receivers 50 receives the displayed optical pattern, recognizes the received light image, calculates the transmitted byte string based on the blinking pattern represented by the optical signal, and also detects the optical signal. The detection position on the light receiving surface is calculated. Then, the processing service according to the combination of the byte string and the light receiving position is executed.
【0040】各送信機20A…は、ビルの外壁や看板な
ど実世界オブジェクト表面の見え易い場所に設置されて
おり、1又はそれ以上の発光部を備えている。発光部
は、例えばマイコン制御のLEDで構成される。そし
て、所定ビット長のデジタル形式の送信データを所定の
変調方式により変調し、LEDの点灯でビット1を表す
とともに消灯でビット0を表すという表示形式に符号化
して、所定ビット(仮にNビットとする)長の送信デー
タに相当する光学的信号を生成する。このような送信機
のことを、以下では、「光ビーコン」とも呼ぶ。Each of the transmitters 20A ... Is installed in an easily visible place on the surface of the real world object such as an outer wall of a building or a signboard, and has one or more light emitting portions. The light emitting unit is composed of, for example, a microcomputer-controlled LED. Then, the transmission data in a digital format having a predetermined bit length is modulated by a predetermined modulation method, and is encoded into a display format in which a bit 1 is represented by turning on the LED and a bit 0 is represented by turning off the LED, and a predetermined bit (probably N bits Optical signal corresponding to the long transmission data is generated. Hereinafter, such a transmitter is also referred to as “optical beacon”.
【0041】各送信機20A…が送出する送信データと
しては、オブジェクトのIDやそのネットワーク・アド
レス、ホスト・ネーム、URLやURIなどの資源識別
子、その他のオブジェクト関連情報などが挙げられる。The transmission data transmitted by each transmitter 20A, etc. includes an object ID, its network address, host name, resource identifier such as URL and URI, and other object related information.
【0042】図2には、送信機20の内部構成を模式的
に示している。同図に示すように、送信機20は、送信
データ生成部21と、データ処理部22と、パターン表
示部23で構成される。FIG. 2 schematically shows the internal structure of the transmitter 20. As shown in the figure, the transmitter 20 includes a transmission data generation unit 21, a data processing unit 22, and a pattern display unit 23.
【0043】送信データ生成部21では、本システム1
0の送信用データとして任意のバイト列を生成する。こ
れは、例えば、ボタンやジョイスティックやトラック・
ボールなどのユーザからの入力を受け付ける入力回路と
A/D変換回路の組み合わせで構成される。あるいは、
有線又は無線の通信媒体を介してインターフェース接続
されたパーソナル・コンピュータのような外部機器(図
示しない)から送信データを受け取ったり、不揮発性メ
モリから読み出された文字列やバイト列を送信データと
してもよい。In the transmission data generation unit 21, this system 1
An arbitrary byte string is generated as 0 transmission data. This could be, for example, a button, a joystick, a track
It is composed of a combination of an input circuit that receives an input from a user such as a ball and an A / D conversion circuit. Alternatively,
The transmission data may be received from an external device (not shown) such as a personal computer that is interface-connected via a wired or wireless communication medium, or the character string or byte string read from the nonvolatile memory may be used as the transmission data. Good.
【0044】情報処理部22は、送信データ生成部から
データを読み込み、後述する手順により、パターンの系
列を生成する。生成したパターンは、パターン表示部2
3に送られる。The information processing section 22 reads the data from the transmission data generating section and generates a series of patterns by the procedure described later. The generated pattern is displayed in the pattern display unit 2
Sent to 3.
【0045】パターン表示部23では、光学的に分別可
能な時間的又は空間的な複数のパターンを表示する。例
えば、LEDの点滅を用いることで0と1のビット系列
を表示する(時間的パターンの表示)ことができる。ま
た、複数(N個)のLEDを2次元の格子上に並べ、各
LED がオン又はオフの状態をとることによって、N
ビットの情報を空間的パターンとして表示することがで
きる。The pattern display section 23 displays a plurality of temporally or spatially patterns that can be optically separated. For example, a blinking LED can be used to display a bit sequence of 0 and 1 (display of a temporal pattern). Further, by arranging a plurality of (N) LEDs on a two-dimensional lattice and turning each LED on or off, N
Bits of information can be displayed as a spatial pattern.
【0046】送信機20のデータ転送レートは、LED
を点滅させる駆動速度によって決まる。例えば、現在市
販されている一般的な発光ダイオード製品であれば、4
kHz程度の周波数で点滅駆動させることができる。但
し、これは、受信機50側の受光ブロック51が持つ応
答速度の制限を受ける。The data transfer rate of the transmitter 20 is LED
Is determined by the driving speed at which the blinks. For example, in the case of general light emitting diode products currently on the market, 4
Flashing can be performed at a frequency of about kHz. However, this is limited by the response speed of the light receiving block 51 on the receiver 50 side.
【0047】例えば、受光ブロック51が2次元マトリ
ックス状に配設された受光部として、CCDイメージ・
センサを用いた場合、その応答速度は60Hz程度であ
り、LEDの点滅データを送受信するには遅すぎる。他
方、前述したCMOSイメージ・センサであれば、12
kHz又はそれ以上の応答速度を持つので、送信機20
側でLEDを最高速で駆動させても、受信機50側では
充分にその点滅パターンを検出することができるであろ
う。For example, as a light receiving portion in which the light receiving blocks 51 are arranged in a two-dimensional matrix, a CCD image
When a sensor is used, its response speed is about 60 Hz, which is too slow to transmit and receive the LED blinking data. On the other hand, if the CMOS image sensor described above is 12
Since it has a response speed of kHz or higher, the transmitter 20
Even if the LED is driven at the maximum speed on the side, the blinking pattern will be sufficiently detected on the side of the receiver 50.
【0048】送信データを8ビット長とした場合、25
5通りのデータを送信することが可能である。8ビット
長の送信データを4kHzのキャリアでマンチェスター
符号化して開始コードなどを含む22ビット長のパケッ
トとして送信する。これにより、光学信号が障害物など
によってパケット送信中に隠れても、パケット単位でデ
ータを送ることができる。If the transmission data has a length of 8 bits, 25
It is possible to transmit 5 types of data. 8-bit transmission data is Manchester-encoded with a 4 kHz carrier and transmitted as a 22-bit packet including a start code. As a result, even if the optical signal is hidden during packet transmission due to an obstacle or the like, data can be transmitted in packet units.
【0049】図3には、送信機20内のデータ処理部2
2の内部構成を示している。図示の通り、送信データを
読み込むデータ入力部31と、パターン生成の処理を実
行する中央処理装置(CPU:Central Processing Uni
t)などの演算処理回路32と、パターン生成用の実行
プログラムをロードしたりパターン生成処理時の作業デ
ータを一時的保存するためのRAM(Random Access Me
mory)33と、演算処理回路32で実行されるプログラ
ム・コードを保存するためのROM(Read Only Memor
y)などのプログラム・メモリ34と、生成されたパタ
ーンを出力するためのパターン出力部35から構成され
る。また、演算処理回路32と、入出力部31,35及
びメモリ33,34はバス36によって結ばれている。FIG. 3 shows the data processing unit 2 in the transmitter 20.
2 shows the internal configuration of No. 2. As shown in the figure, a data input unit 31 for reading transmission data and a central processing unit (CPU: Central Processing Uni) for executing a pattern generation process.
t) and the like, and a RAM (Random Access Me) for loading an execution program for pattern generation and temporarily storing work data during pattern generation processing.
mory) 33 and a ROM (Read Only Memory) for storing the program code executed by the arithmetic processing circuit 32.
y) and the like, and a pattern output section 35 for outputting the generated pattern. The arithmetic processing circuit 32, the input / output units 31 and 35, and the memories 33 and 34 are connected by a bus 36.
【0050】一方の受信機50は、図1に示したよう
に、複数(M個)の受光ブロック51−1,51−2,
…,51−Mと、各受光ブロック51−1…の出力を統
合処理するデータ処理部60と、データ処理結果に従っ
て所定のサービスを実行するアプリケーション部70と
で構成される。As shown in FIG. 1, one receiver 50 includes a plurality (M) of light receiving blocks 51-1, 51-2,
, 51-M, a data processing unit 60 that integrally processes the outputs of the respective light receiving blocks 51-1 ..., and an application unit 70 that executes a predetermined service according to the data processing result.
【0051】受光ブロック51−1,51−2…は、実
際には、図4に示すように、n×m(=M)の2次元マ
トリックス状に配置されており、全体として2次元的な
受光面からなる受光部をなしている。このような受光部
は、例えばCMOSイメージ・センサを用いて構成する
ことができ、1つの画素が1つの受光ブロックに相当す
る。CMOSイメージ・センサは、一般に、CCDセン
サに比し駆動速度が速いので、送信機側でLEDを比較
的高い周波数で駆動させても、その点滅パターンを読み
取ることができる。The light-receiving blocks 51-1, 51-2, ... Are actually arranged in a two-dimensional matrix of n × m (= M) as shown in FIG. It constitutes a light-receiving part consisting of a light-receiving surface. Such a light receiving unit can be configured by using, for example, a CMOS image sensor, and one pixel corresponds to one light receiving block. Since the CMOS image sensor generally has a higher driving speed than the CCD sensor, the blinking pattern can be read even when the LED is driven at a relatively high frequency on the transmitter side.
【0052】図5には、受信機50における1つの受光
ブロック51の内部構成を模式的に示している。同図に
示すように、1つの受光ブロック51は、受光量に応じ
た電気信号を生成する受光素子81と、バンド・パス・
フィルタ(BPF)82と、フェーズ・ロック・ループ
(PLL)83と、A/D変換器84と、撮像データ保
存用メモリ85と、2値化データ保存用メモリ86と、
転送データ保存用メモリ87と、受光ブロック51内を
統括的にコントロールして同期駆動させるための制御部
88とで構成される。FIG. 5 schematically shows the internal structure of one light receiving block 51 in the receiver 50. As shown in the figure, one light receiving block 51 includes a light receiving element 81 for generating an electric signal according to the amount of received light, a band pass
A filter (BPF) 82, a phase lock loop (PLL) 83, an A / D converter 84, an imaging data storage memory 85, a binarized data storage memory 86,
It is composed of a transfer data storage memory 87 and a control unit 88 for comprehensively controlling and synchronously driving the inside of the light receiving block 51.
【0053】受光素子81は、CMOSセンサ素子で構
成される。また、それ以外の受光素子駆動用、デコード
用の処理モジュールをFPGA(Field Programmable G
ateArray)などのICチップで構成することができる。
撮像データ保存用メモリ85は、受信機50がカメラと
して動作しているときに、受光素子81に濃淡画素値を
一時的に保存するために使用される。The light receiving element 81 is composed of a CMOS sensor element. In addition, other processing modules for driving the light-receiving element and decoding are installed in FPGA (Field Programmable G
ateArray) and the like.
The imaging data storage memory 85 is used to temporarily store the grayscale pixel value in the light receiving element 81 when the receiver 50 operates as a camera.
【0054】送信機20側からのLEDの点滅データ
は、図示しない集光レンズ系を介して受光部の2次元受
光面上に結像され、2次元受光面上でLEDの光軸に対
応する位置にある受光ブロックがその点滅パターンを検
出することができる。また、CMOSイメージ・センサ
からなる受光部は、各画素すなわち受光ブロック毎に単
にLEDの点滅信号を検出するだけでなく、受光面に結
像された画像を撮影するカメラとしても機能する。The blinking data of the LED from the transmitter 20 side is imaged on the two-dimensional light receiving surface of the light receiving portion via a condenser lens system (not shown), and corresponds to the optical axis of the LED on the two-dimensional light receiving surface. The light receiving block at the position can detect the blinking pattern. In addition, the light receiving section including the CMOS image sensor not only detects the blinking signal of the LED for each pixel, that is, each light receiving block, but also functions as a camera for capturing an image formed on the light receiving surface.
【0055】データ収集部60は、各受光ブロック51
−1…の出力を統合的に処理する。その処理内容は、各
画素すなわち受光ブロック毎に検出されたLEDの点滅
信号の処理と、2次元マトリックス状に配設された各受
光ブロック51−1,…,151−Mにより撮像された
画像フレームの処理の2種類に大別される。The data collecting unit 60 includes the light receiving blocks 51.
-1 ... Outputs are processed in an integrated manner. The contents of the processing are the processing of the blinking signal of the LED detected for each pixel, that is, each light receiving block, and the image frame imaged by each light receiving block 51-1, ..., 151-M arranged in a two-dimensional matrix. There are two types of processing.
【0056】図6には、受信機50内のデータ処理部6
0の内部構成を模式的に示している。同図に示すよう
に、データ処理部60は、受光部からの画像を読み込む
画像入力部61と、パターンの検出及び位置の算出、抽
出パターンからのバイト列の算出を行う中央処理装置
(CPU)などの演算処理回路62と、実行プログラム
のロードや作業データの一時的な保存に使用するRAM
などのメモリ63と、演算処理回路62で実行されるプ
ログラム・コードを保存するためのROMなどのプログ
ラム・メモリ64と、認識されたパターンの種類・位置
と受信したバイト列を出力するための結果出力部65を
備えている。また、演算処理回路62と、入出力部6
1,65及びメモリ63,64はバス66によって結ば
れている。FIG. 6 shows the data processing unit 6 in the receiver 50.
0 schematically shows the internal configuration of 0. As shown in the figure, the data processing unit 60 includes an image input unit 61 that reads an image from the light receiving unit and a central processing unit (CPU) that detects a pattern, calculates a position, and calculates a byte string from an extracted pattern. An arithmetic processing circuit 62 such as a RAM and a RAM used for loading an execution program and temporarily storing work data
, A program memory 64 such as a ROM for storing the program code executed by the arithmetic processing circuit 62, the type and position of the recognized pattern, and the result for outputting the received byte string. The output unit 65 is provided. Further, the arithmetic processing circuit 62 and the input / output unit 6
1, 65 and memories 63, 64 are connected by a bus 66.
【0057】アプリケーション部70は、データ処理部
60によるデータ収集結果に従って所定のサービスを実
行する。例えば、アプリケーション部70は、カメラと
して機能する受光部から得られた撮影画像に対して画像
処理や画像認識を行なう以外に、データ収集結果を基に
復号された送信機20からの送信データに対応する処理
サービスを実行する。The application section 70 executes a predetermined service according to the data collection result by the data processing section 60. For example, the application unit 70 corresponds to the transmission data from the transmitter 20 that is decoded based on the data collection result, in addition to performing image processing and image recognition on the captured image obtained from the light receiving unit that functions as a camera. Execute the processing service.
【0058】送信機20からの送信データは、機器I
D、ネットワーク・アドレス、ホスト・ネーム、URL
やURIなどの資源識別子、その他のオブジェクト関連
情報などであり、アプリケーション部70は、オブジェ
クトに関連した処理を行うことができる。例えば、受信
した光学信号から復号されたURLを基にオブジェクト
に関連する情報をWWW(World Wide Web)情報提供空
間で探索したり、探索結果を表示したり、さらにカメラ
として撮影した画像の上に探索結果をオーバーレイ表示
させたりすることができる(NaviCam)。また、
デコードされたオブジェクトの機器IDやネットワーク
・アドレスを基に、オブジェクトとユーザ端末とのネッ
トワーク接続を確立させたりすることができる(gaz
e−link)。The transmission data from the transmitter 20 is the device I
D, network address, host name, URL
Resource identifiers such as URIs and URIs, other object related information, and the like, and the application unit 70 can perform processing related to objects. For example, based on the URL decoded from the received optical signal, the information related to the object is searched in the WWW (World Wide Web) information providing space, the search result is displayed, and further, it is displayed on the image taken by the camera. The search results can be displayed as an overlay (NaviCam). Also,
A network connection between the object and the user terminal can be established based on the decoded device ID and network address of the object (gaz).
e-link).
【0059】受信機50は、例えば、CMOSイメージ
・センサを使用するデジタル・カメラをUSB(Univer
sal Serial Bus)などのインターフェース経由でコンピ
ュータに接続することによって構成される。このような
場合、アプリケーション部70は、コンピュータ上で実
行されるアプリケーションに相当し、デジタル・カメラ
から入力される撮影(シーン)画像に、光学信号から復
号されたデジタル・データに基づくコンピュータ画像を
重畳した合成画像を表示したりすることができる。The receiver 50 is, for example, a digital camera using a CMOS image sensor, which is a USB (Univer
sal Serial Bus) is configured by connecting to a computer via an interface such as. In such a case, the application unit 70 corresponds to an application executed on a computer and superimposes a computer image based on digital data decoded from an optical signal on a captured (scene) image input from a digital camera. The synthesized image can be displayed.
【0060】デジタル・カメラのようにシーンを撮影す
るイメージ・センサに受信機50としての機能を付加的
に装備することができる。例えば高速な点滅パターンと
して光学信号を送信する場合、高速にサンプリング可能
なデバイスであるCMOSイメージ・センサを適用す
る。一般的なデジタル・カメラは30fpsで撮影して
いるが、これ以上高速化しても人の動画認識能力を越え
てしまう。このことから、30fpsでシーンを撮像す
る「カメラ・モード」以外の余った時間を利用して光学
信号を受信処理する「デコード・モード」を設けること
により、CMOSイメージ・センサに付加価値を与える
ことができる。An image sensor for photographing a scene such as a digital camera can be additionally equipped with a function as the receiver 50. For example, when transmitting an optical signal as a high-speed blinking pattern, a CMOS image sensor which is a device capable of high-speed sampling is applied. A general digital camera shoots at 30 fps, but even if the speed is further increased, it exceeds the ability of a person to recognize a moving image. From this, it is possible to add value to the CMOS image sensor by providing a "decode mode" for receiving and processing an optical signal by utilizing the extra time other than the "camera mode" for capturing a scene at 30 fps. You can
【0061】デコード・モードでは、例えば12kHz
のサンプリングを200回繰り返し、送信機20側で送
出するキャリア周波数4kHzの8ビットの光学信号を
イメージ・センサのすべての受光ブロックでデコードし
て、15fpsで光学信号の受信・認識画像を作成する
ことができる。この認識画像は、画像の各画素の値がデ
コードした結果であり、光学信号が表現する送信データ
と、光学信号を発する送信機の空間的情報(すなわち実
世界オブジェクトが持つ実世界状況)の双方を含んであ
る。In decode mode, for example, 12 kHz
The sampling of is repeated 200 times, the 8-bit optical signal of carrier frequency 4 kHz sent from the transmitter 20 side is decoded by all the light receiving blocks of the image sensor, and the reception / recognition image of the optical signal is created at 15 fps. You can This recognition image is the result of decoding the value of each pixel of the image, and both the transmission data represented by the optical signal and the spatial information of the transmitter emitting the optical signal (that is, the real world situation of the real world object) Is included.
【0062】図1に示したデータ通信システム10で
は、送信機20は、送信データとしてのバイト列を光学
的に分別可能な1以上のパターンとして表示することに
より、データを送出する。一方の受信機50は、表示さ
れた光学的パターンを2次元受光面で受光して、その受
光画像を認識して、光学的パターンの系列を基に送信さ
れたバイト列を算出するとともに、光学的パターンの受
光面上での位置を算出する。そして、送信機20が出力
する表示パターンの位置が画像フレーム間で変化する場
合にも、その位置をトラッキングすることにより、任意
のバイト列の受信を可能にする。In the data communication system 10 shown in FIG. 1, the transmitter 20 transmits data by displaying a byte string as transmission data as one or more patterns that can be optically separated. One of the receivers 50 receives the displayed optical pattern on the two-dimensional light receiving surface, recognizes the received light image, calculates the transmitted byte string based on the series of optical patterns, and The position of the static pattern on the light receiving surface is calculated. Even if the position of the display pattern output by the transmitter 20 changes between image frames, the position is tracked to enable reception of an arbitrary byte string.
【0063】図7には、送信機20側のデータ送信処理
手順をフローチャートの形式で示している。FIG. 7 shows a data transmission processing procedure on the transmitter 20 side in the form of a flowchart.
【0064】まず、送信すべきデータ(バイト列)の1
フレーム分のデータをデータ入力部31より読み込む
(ステップS1)。First, 1 of the data (byte string) to be transmitted
The data for the frame is read from the data input unit 31 (step S1).
【0065】次いで、前ステップで取得したデータを、
図8に示すようなデータ・フレームの形式(後述)に変
換して、メモリ33上に一時保存する(ステップS
2)。Next, the data acquired in the previous step is
It is converted into a data frame format (described later) as shown in FIG. 8 and temporarily stored in the memory 33 (step S
2).
【0066】次いで、生成したデータ・フレームをメモ
リ33から読み出して、パターン表示部35において、
LED光の点滅や光の強弱の変化など光学的に分別可能
なパターンを表示することによって、データ送出する
(ステップS3)。Next, the generated data frame is read from the memory 33, and in the pattern display section 35,
Data is transmitted by displaying an optically distinguishable pattern such as blinking of LED light or change of intensity of light (step S3).
【0067】次いで、データ送信を継続するか又は中止
するか判定をする(ステップS4)。そして、データの
送信を続ける場合には、ステップS1へ戻り、上述と同
様の光学的パターンの表示処理を行なう。Then, it is determined whether the data transmission should be continued or stopped (step S4). If the data transmission is to be continued, the process returns to step S1 and the same optical pattern display process as described above is performed.
【0068】図8には、光学的信号を利用したデータ通
信システム10においてデータ伝送に使用されるデータ
・フレームの形式を示している。FIG. 8 shows a format of a data frame used for data transmission in the data communication system 10 using an optical signal.
【0069】このデータ・フレームの先頭には、フレー
ム開始を示すバイト列(開始コード)が配置される。こ
のバイト列は、ここ以外の場所では生じない固有のバイ
ト列が使用される。At the beginning of this data frame, a byte string (start code) indicating the start of the frame is arranged. This byte string is a unique byte string that does not occur anywhere else.
【0070】次に、送信データ(ペイロード)が所定の
長さで格納される。ペイロードを可変長にする場合に
は、先頭にペイロード(又はフレーム)のサイズを格納
するようにすればよい。Next, the transmission data (payload) is stored in a predetermined length. When the payload has a variable length, the size of the payload (or frame) may be stored at the beginning.
【0071】データ・フレームの最後尾には、送信した
データ列に誤りがないかをチェックするためのチェック
サムを付加する。但し、このチェックサムは必須ではな
く、省略しても構わない。また、ペイロードやチェック
サムに、開始コードと同じバイト列が生じる場合には、
他のバイト列に変換する必要がある。At the end of the data frame, a checksum for checking whether the transmitted data string has an error is added. However, this checksum is not essential and may be omitted. If the same byte string as the start code occurs in the payload or checksum,
Need to convert to another byte sequence.
【0072】ここで、上記の開始コードがデータ部とチ
ェックサムに生じないようにするための変換方法の一例
を説明しておく。この例では、開始コードがA1,A2,
A3,A4という最小送信データの系列であるとし、A1
からA4は互いに異なる値である。Here, an example of a conversion method for preventing the above start code from occurring in the data part and the checksum will be described. In this example, the start codes are A 1 , A 2 ,
A 3 and A 4 are the minimum transmission data series, and A 1
To A 4 are different from each other.
【0073】まず、ペイロードとチェックサム部のデー
タを順に調べる。そして、A1、A2、A3というパター
ンが見付かったら、これをA1、A2、A3、Bというパ
ターンに置き換える。但し、BはA1からA4とは異なる
値である。この変換により、開始コードはペイロードや
チェックサムには生じない系列となる。First, the payload and the data of the checksum portion are sequentially examined. When the pattern A 1 , A 2 , A 3 is found, it is replaced with the pattern A 1 , A 2 , A 3 , B. However, B is a value different from A 1 to A 4 . By this conversion, the start code becomes a series that does not occur in the payload or checksum.
【0074】次いで、逆変換の方法について述べる。逆
変換では、データの先頭から順にA 1、A2、A3、Bと
いう系列を探し、これをA1、A2、A3という系列に変
換する。この逆変換により、データ列は変換前のデータ
に戻る。Next, the method of inverse conversion will be described. Reverse
In the conversion, A from the beginning of the data 1, A2, A3, B and
Look for the series called A1, A2, A3Change to the series
Replace. By this reverse conversion, the data string is the data before conversion
Return to.
【0075】図9には、図7に示したデータ送信処理の
うち、ステップS3におけるデータ・フレーム生成の詳
細な処理手順をフローチャートの形式で示している。FIG. 9 shows, in the form of a flow chart, a detailed processing procedure of data frame generation in step S3 of the data transmission processing shown in FIG.
【0076】まず、何個のパターンを送信したかを計数
するパターン・カウンタkを、初期値0に設定する(ス
テップS11)。First, a pattern counter k for counting the number of patterns transmitted is set to an initial value 0 (step S11).
【0077】次いで、データ・フレーム用のメモリ33
から、k番目の最小送信データを読み込んで、表示用の
パターンに変換する(ステップS12)。最小送信デー
タは、変換テーブルを用いて、表示パターンに変換され
る。Next, the memory 33 for the data frame
Then, the k-th minimum transmission data is read and converted into a display pattern (step S12). The minimum transmission data is converted into a display pattern using the conversion table.
【0078】次いで、パターンをパターン表示部23に
転送して、光の点滅や強弱の変化など光学的に分別可能
なパターンの表示によってデータ送出を行なう(ステッ
プS13)。Then, the pattern is transferred to the pattern display section 23, and data is transmitted by displaying a pattern that can be optically distinguished such as blinking of light and change of intensity (step S13).
【0079】次いで、パターン・カウンタkを1だけ増
分する(ステップS14)。そして、データ・フレーム
内のデータをすべて送信したかをチェックし(ステップ
S15)、送信していないデータがあれば、ステップS
12へ戻り、次の最小単位のデータの送出を行なう。Then, the pattern counter k is incremented by 1 (step S14). Then, it is checked whether all the data in the data frame have been transmitted (step S15), and if there is data that has not been transmitted, step S15.
Returning to step 12, the next minimum unit of data is transmitted.
【0080】このようにして送信機から表示パターンを
切り替えることにより、バイト列を送信することができ
る。次に、受信機でのデータの受信方法について説明す
る。By switching the display pattern from the transmitter in this manner, the byte string can be transmitted. Next, a method of receiving data at the receiver will be described.
【0081】図10には、パターン表示部23から光学
的に分別可能なパターンの形式で送出されたデータを受
信機50側で受信処理するための手順をフローチャート
の形式で示している。この受信処理は、実際には、デー
タ処理部60が受光部50による受光画像を認識処理す
ることによって実現される。FIG. 10 shows, in the form of a flow chart, the procedure for receiving processing on the receiver 50 side of the data transmitted from the pattern display section 23 in the form of a pattern that can be optically discriminated. This reception process is actually realized by the data processing unit 60 recognizing the received light image by the light receiving unit 50.
【0082】まず、画像の読み込みとパターンの認識を
行う(ステップS21)。パターンの認識方法は、表示
パターンとして何を用いるかによって異なる。本実施形
態では、受光画像上に存在するすべての光学的パターン
と、各光学的パターンの位置が検出される。First, image reading and pattern recognition are performed (step S21). The pattern recognition method differs depending on what is used as the display pattern. In this embodiment, all the optical patterns existing on the received light image and the positions of the respective optical patterns are detected.
【0083】次いで、認識されたパターンをNビットの
バイト列(最小送信データ)に変換することにより送信
データを復元する(ステップS22)。この変換テーブ
ルは、送信機20側で最小送信データからパターンに変
換するために使用した変換テーブル(上述)の逆変換で
ある。Next, the transmission data is restored by converting the recognized pattern into an N-bit byte string (minimum transmission data) (step S22). This conversion table is an inverse conversion of the conversion table (described above) used to convert the minimum transmission data into a pattern on the transmitter 20 side.
【0084】次いで、受光面で受光したすべてのパター
ンを作業用メモリ54内に設けられたデータ・バッファ
に登録する(ステップS23)。登録方法の詳細につい
ては後述に譲る。Then, all the patterns received by the light receiving surface are registered in the data buffer provided in the working memory 54 (step S23). Details of the registration method will be given later.
【0085】次いで、終了判定を行なう(ステップS2
4)。そして、データの受信を続ける場合には、ステッ
プS21に戻って、上述と同様の最小送信データ単位で
の送信データの復号処理を続行する。Then, the end judgment is made (step S2).
4). Then, if the data reception is to be continued, the process returns to step S21, and the decoding process of the transmission data in the minimum transmission data unit similar to the above is continued.
【0086】図11には、作業メモリ54内に設けられ
た受信データ・バッファの構成を模式的に示している。
同図を参照しながら、ステップS23における受信パタ
ーンの登録方法について説明する。FIG. 11 schematically shows the structure of the reception data buffer provided in the working memory 54.
The reception pattern registration method in step S23 will be described with reference to FIG.
【0087】データ・バッファは、認識されたパターン
の系列毎、すなわち送信機毎にエントリが用意される。
図11に示すように、各エントリは、受光面上でパター
ンが検出された位置(X,Y)と、受光パターンを変換
して得たバイト系列の組み合わせで構成される。In the data buffer, an entry is prepared for each series of recognized patterns, that is, for each transmitter.
As shown in FIG. 11, each entry is composed of a position (X, Y) where a pattern is detected on the light receiving surface and a byte sequence obtained by converting the light receiving pattern.
【0088】受光面上では、時々刻々と光学的パターン
が受光される。そして、変換テーブルを用いて光学的パ
ターンを変換してバイト系列を得ると、これを該当する
エントリに登録する。ここで言う登録は、バイト系列に
逐次連結していくことを意味する。バイト系列の連結に
より最終的に生成されたバイト系列が、該当する送信機
から送られたデータとなる。図11に示す例では、受光
面上の各点(X1,Y1),(X2,Y2),(X3,
Y3),(X4,Y4),…で検出された光ビーコンから
の送信データ1〜4が各エントリに格納されている。On the light receiving surface, the optical pattern is received moment by moment. Then, when the optical pattern is converted using the conversion table to obtain the byte series, this is registered in the corresponding entry. The registration referred to here means that the bytes are sequentially connected. The byte sequence finally generated by concatenating the byte sequences becomes the data sent from the corresponding transmitter. In the example shown in FIG. 11, points (X 1 , Y 1 ), (X 2 , Y 2 ), (X 3 ,
The transmission data 1 to 4 from the optical beacon detected by Y 3 ), (X 4 , Y 4 ), ... Are stored in each entry.
【0089】B.拡張現実感システム
上述の光学的信号を利用したデータ通信システムを拡張
現実感システムに適用すれば、ユーザの位置などの実世
界情報を利用したサービスを提供することができる。こ
の場合、ユーザは携帯端末を保持するだけで、システム
はユーザの近傍や視界中にある実世界の事物に応じた情
報を提示して、ネットワーク上にある膨大な情報を利用
して日常生活のあらゆる局面を支援することができる。 B. Augmented Reality System By applying the above-mentioned data communication system using optical signals to an augmented reality system, it is possible to provide a service using real world information such as a user's position. In this case, the user simply holds the mobile terminal, and the system presents information according to real-world things in the vicinity of the user or in the field of view, and uses the vast amount of information on the network to carry out daily life. Can support all aspects.
【0090】例えば、LEDを光源とする送信機を看板
や照明、ビルのランプ、信号機など実世界上の所定の場
所に設置されている。ユーザは、受信機としてのカメラ
が搭載された(あるいは接続された)PDAなどの情報
端末でレストランの看板を見ると、送信機から光学的信
号の形式で発信されるレストランのオブジェクトIDを
取得することができる。さらに、このオブジェクトID
をデータベースで検索することにより、レストランのメ
ニューなどの情報を取り出して、PDAの画面上に表示
することができる。For example, a transmitter having an LED as a light source is installed in a predetermined place in the real world such as a signboard, a lighting, a building lamp, and a traffic signal. When the user looks at the signboard of the restaurant on an information terminal such as a PDA equipped with (or connected to) a camera as a receiver, the user acquires the object ID of the restaurant transmitted in the form of an optical signal from the transmitter. be able to. Furthermore, this object ID
Can be retrieved from the database to retrieve information such as a restaurant menu and display it on the PDA screen.
【0091】また、カメラ付き情報端末で目の前の映画
のポスターを眺めると、ポスターの近傍に設置されてい
る送信機から映画のID情報を取得し、このID情報に
基づいてデータベース検索することにより、映画の予告
編動画を取り出して、情報端末の画面に表示出力する。When a movie poster in front of the viewer is viewed with a camera-equipped information terminal, the movie ID information is acquired from a transmitter installed near the poster, and a database search is performed based on this ID information. By this, the trailer movie of the movie is taken out and displayed on the screen of the information terminal.
【0092】また、カメラ付き情報端末で遠くのビルや
架橋などの建造物を眺めると、これら建造物に取り付け
られたランプの点滅によって建造物のID情報を抽出し
て、このID情報に基づいてデータベースを検索するこ
とにより、建造物又はその近所で催されるイベント情報
を取り出して、情報端末の画面に表示出力する。When a building such as a building or bridge is distant from the information terminal with a camera, the ID information of the building is extracted by blinking a lamp attached to the building, and based on this ID information. By searching the database, the event information held in the building or its neighborhood is extracted and displayed on the screen of the information terminal.
【0093】図12には、本実施形態に係る拡張現実感
システム100の構成を模式的に示している。FIG. 12 schematically shows the configuration of the augmented reality system 100 according to this embodiment.
【0094】この拡張現実感システム100は、実世界
上の各オブジェクトに設置された光ビーコン110と、
実世界の風景を撮像するとともに光ビーコン110が照
射される光学的信号を認識するID認識カメラ付き情報
端末130と、情報端末130に対してさまざまな情報
サービスを提供するサービス・プロバイダ(サーバ)1
50とで構成されている。The augmented reality system 100 includes an optical beacon 110 installed on each object in the real world,
An information terminal 130 with an ID recognition camera that captures an image of the real world and recognizes an optical signal emitted by the optical beacon 110, and a service provider (server) 1 that provides various information services to the information terminal 130.
It is composed of 50 and.
【0095】光ビーコン110は図1に示した送信機2
0に相当し、また、ID認識カメラ付き情報端末130
は受信機50に相当し、これらの間は光学的信号に基づ
くデータ通信システムによって一方向で接続されてい
る。The optical beacon 110 is the transmitter 2 shown in FIG.
0, and the information terminal 130 with an ID recognition camera
Corresponds to the receiver 50, and these are unidirectionally connected by a data communication system based on optical signals.
【0096】また、情報端末130とサービス・プロバ
イダ150の間は、例えばインターネットのような広域
的なコンピュータ・ネットワークを介して相互接続され
ている。The information terminal 130 and the service provider 150 are interconnected via a wide area computer network such as the Internet.
【0097】情報端末130は、例えばPDAや携帯電
話機などのように小型に構成されて、各ユーザが所持し
ているものとする。また、図12には、光ビーコン11
0並びにサービス・プロバイダ150をそれぞれ1つず
つしか描いていないが、勿論、さまざまな実世界オブジ
ェクト(街角の広告看板やポスター、建物の外壁など)
の近傍に無数の光ビーコンが散在してそれぞれ固有のデ
ータを送出したり、無数のサービス・プロバイダ150
がコンピュータ・ネットワーク上に存在してさまざまな
情報サービスを提供していてもよい。It is assumed that the information terminal 130 has a small size, such as a PDA or a mobile phone, and is owned by each user. Further, in FIG. 12, the optical beacon 11
0 and one service provider 150 each, but of course various real-world objects (billboards and posters on street corners, exterior walls of buildings, etc.)
A myriad of optical beacons are scattered near each other to send out unique data, and a myriad of service providers 150
May reside on a computer network and provide various information services.
【0098】図13には、ID認識カメラ付き情報端末
130の内部構成をさらに示している。FIG. 13 further shows the internal structure of the information terminal 130 with the ID recognition camera.
【0099】ID認識カメラ部131は、受光部50及
びデータ処理部60に相当し、実世界の風景を撮像する
「カメラ・モード」と、前項Aで示したように仕組みに
従い、光ビーコン110からの送信信号をデコードする
「デコード・モード」という2通りの動作モードを時分
割形式で実行する。The ID recognition camera section 131 corresponds to the light receiving section 50 and the data processing section 60, and is operated from the optical beacon 110 in accordance with the "camera mode" for photographing the scenery of the real world and the mechanism as shown in the previous section A. The two operation modes of "decoding mode" for decoding the transmission signal of 1 are executed in a time-division format.
【0100】コンピュータ部132は、アプリケーショ
ン部70に相当し、CPUとRAM、ROMなどで構成
され、CPUがオペレーティング・システム(OS)が
提供する実行環境下でコンピュータ・プログラムを起動
することによりさまざまな処理サービスを行なう。例え
ば、コンピュータ部132は、情報端末130本体の処
理サービス以外にID認識カメラ部131のカメラ・モ
ード下における実世界撮像画像とデコード・モード下に
おける光学的信号のデコード結果を統合した拡張処理サ
ービスを行なう。なお、CPUの実行プログラムはRO
M上に恒久的に書き込まれ、あるいはコンピュータ・ネ
ットワーク経由でダウンロードされ、RAM上にロード
して処理される。The computer section 132 corresponds to the application section 70, and is composed of a CPU, a RAM, a ROM, and the like. The CPU activates a computer program under an execution environment provided by an operating system (OS) to perform various operations. Providing processing services. For example, the computer unit 132 provides, in addition to the processing service of the main body of the information terminal 130, an extended processing service that integrates the real world captured image under the camera mode of the ID recognition camera unit 131 and the decoding result of the optical signal under the decoding mode. To do. The execution program of the CPU is RO
It is permanently written to M or downloaded via a computer network and loaded into RAM for processing.
【0101】コンピュータ部132は、情報端末130
本体のユーザ・インターフェースとしての表示部(例え
ば液晶ディスプレイ)133並びにユーザ入力部134
を備えている。The computer section 132 has the information terminal 130.
A display unit (for example, a liquid crystal display) 133 as a user interface of the main body and a user input unit 134
Is equipped with.
【0102】表示部133上では、通常の端末オペレー
ション画面以外に、ID認識カメラ部131において撮
像された実世界風景画像を表示したり、受信した光学的
信号のデコード結果などの拡張処理サービス画面を表示
する。On the display unit 133, in addition to the normal terminal operation screen, a real world landscape image captured by the ID recognition camera unit 131 is displayed and an extended processing service screen such as a decoding result of the received optical signal is displayed. indicate.
【0103】また、ユーザ入力部134は、通常の端末
入力機能以外に、キャプチャ・ボタン(後述)や拡張処
理サービス画面上で光ビーコンの選択機能を備えてい
る。ユーザ入力部134は、ボタンやカーソル・ボタ
ン、ジョグダイヤル、トラックボールなどの入力操作を
行なう装置で構成される。本実施形態では、これら操作
部の一部は、キャプチャ・ボタン、選択ボタン、EXI
Tボタン(後述)に割り当てられている。また、カーソ
ル・ボタンは、押下操作に応答して左右方向に傾いてそ
の傾いた方向をコンピュータ部132に伝達するために
使用される。In addition to the normal terminal input function, the user input section 134 has a capture button (described later) and an optical beacon selection function on the extended processing service screen. The user input unit 134 is composed of a device for performing an input operation such as a button, a cursor button, a jog dial, and a trackball. In the present embodiment, some of these operation units include a capture button, a selection button, an EXI
It is assigned to the T button (described later). The cursor button is used to tilt in the left-right direction in response to the pressing operation and transmit the tilted direction to the computer unit 132.
【0104】画像&ID記憶部135は、ID認識カメ
ラ部131において撮像された実世界風景画像、並び
に、該風景画像上で検出された1以上の光学的信号のデ
コード結果を関連付けて保存する。画像&ID記憶部1
35は、例えばNVRAMやフラッシュ・メモリのよう
な不揮発性半導体メモリ、あるいはハード・ディスク装
置などで構成される。The image & ID storage unit 135 stores the real world scenery image picked up by the ID recognition camera unit 131 and the decoding results of one or more optical signals detected on the scenery image in association with each other. Image & ID storage 1
The numeral 35 is composed of, for example, a nonvolatile semiconductor memory such as NVRAM or flash memory, or a hard disk device.
【0105】コンピュータ部132は、ネットワーク・
インターフェース部136を介して外部のコンピュータ
・ネットワークに接続されている。ネットワーク・イン
ターフェース部136は、例えばTCP/IPなどのネ
ットワーク・プロトコルを実装したり、あるいは携帯電
話網、有線又は無線LAN、USB(Universal Serial
Bus)、IEEE1394、Bluetoothなどを
経由してコンピュータ・ネットワークに接続することが
できる。The computer section 132 is a network
It is connected to an external computer network via the interface unit 136. The network interface unit 136 implements a network protocol such as TCP / IP, a mobile phone network, a wired or wireless LAN, or a USB (Universal Serial).
Bus), IEEE 1394, Bluetooth, etc., to connect to a computer network.
【0106】ユーザは、情報端末130の拡張処理サー
ビスを起動後、ID認識カメラ131を所望の光ビーコ
ン110の方に向ける。この結果、表示部133の画面
上にはカメラの画像とともに、光ビーコン110から得
た情報又はその情報を基にネットワーク経由でサービス
・プロバイダ150から提供される情報が併せて表示さ
れる。After starting the extended processing service of the information terminal 130, the user points the ID recognition camera 131 toward the desired optical beacon 110. As a result, the image of the camera is displayed on the screen of the display unit 133 together with the information obtained from the optical beacon 110 or the information provided from the service provider 150 via the network based on the information.
【0107】図12に示すような拡張現実感システム1
00においては、光ビーコン110から送出される情報
に、実世界オブジェクトに関連する情報を提供できるサ
ービス・プロバイダ150のネットワーク上のアドレス
や、URLなどの情報資源を特定する識別子などが含ま
れていれば、携帯端末のネットワーク接続機能を用いて
そのサービス・プロバイダ150にアクセスし、所望の
サービスを受けることが可能である。Augmented reality system 1 as shown in FIG.
In 00, the information transmitted from the optical beacon 110 may include an address on the network of the service provider 150 capable of providing information related to the real world object, an identifier for identifying an information resource such as a URL, and the like. For example, it is possible to access the service provider 150 and receive a desired service by using the network connection function of the mobile terminal.
【0108】すなわち、情報端末130に内蔵されたI
D認識カメラ131の視線方向を所望の実世界オブジェ
クト又はその光ビーコン110に向け、情報端末130
の表示部133に光ビーコンが認識されたことが示され
たときに、もしその情報にアクセスしたければ、選択ボ
タンを押すという操作によりサービスの起動が行なわれ
る。That is, the I built in the information terminal 130 is
The direction of the line of sight of the D recognition camera 131 is directed toward the desired real world object or its optical beacon 110, and the information terminal 130
When it is shown on the display unit 133 that the optical beacon is recognized, if the user wants to access the information, the service is activated by pressing the select button.
【0109】ところが、ユーザは、ID認識カメラ付き
情報端末130を所望の実世界オブジェクト(例えばビ
ルの看板など)にかざした姿勢で選択することができれ
ばよいが、手を伸ばしてオブジェクトに向けている姿勢
のままでは、実際にどの光学的信号を検出したかを確認
することはできない。何故なら、端末130の表示画面
を見易い場所(例えば体の前)に端末を移動させると、
光ビーコン110はもはやID認識カメラ131の視野
外に消え去ってしまうからである。However, it suffices if the user can select the information terminal 130 with the ID recognition camera while holding the desired real world object (for example, a signboard of a building) in a desired posture, but the user reaches out to the object. In the posture, it is not possible to confirm which optical signal is actually detected. This is because when the terminal is moved to a place where the display screen of the terminal 130 is easy to see (for example, in front of the body),
This is because the optical beacon 110 has already disappeared outside the field of view of the ID recognition camera 131.
【0110】また、ユーザがID認識カメラ付き情報端
末130を所望の視線方向にかざして撮影したとき、同
じ画像フレーム内に複数の光ビーコンを捕捉することも
ある。このような場合、撮影画像の中から所望の光ビー
コンを選択、あるいは選択確定操作しなければならない
が、カメラをかざした姿勢では複雑な端末操作を行なう
ことはできない。また、端末画面を見易い場所に移動さ
せると、光学的信号は画面フレームから振り切れてしま
うので、正確に選択できなくなる。Further, when the user photographs the information terminal 130 with the ID recognition camera by holding it in the desired line-of-sight direction, a plurality of optical beacons may be captured in the same image frame. In such a case, it is necessary to select a desired optical beacon from the captured image or perform a selection confirmation operation, but a complicated terminal operation cannot be performed with the posture of holding the camera. Also, if the terminal screen is moved to a place where it is easy to see, the optical signal will be shaken off the screen frame, and it will not be possible to select it accurately.
【0111】そこで、本実施形態に係るID認識カメラ
付き情報端末130においては、キャプチャ・ボタン並
びに画像&ID記憶部135を備え、ID認識カメラ1
31を光ビーコンにかざしていない状態でも光ビーコン
の選択動作を行なえるように構成した。ユーザは、所望
の実世界オブジェクトの方に情報端末130を向けて、
所望の光ビーコンをID認識カメラ131で捕捉したと
き、すなわち情報端末130の表示部133に光ビーコ
ンが認識されたことが示されたときに、キャプチャ・ボ
タンを押下操作する。情報端末130側では、この押下
操作に応答して、撮影画像と画像の中から検出されたI
D(光ビーコン110から受信した情報)を画像&ID
記憶部135に記録する。このようにして光ビーコンの
撮影を終えると、ユーザは、改めて表示部133で表示
されている撮影画像を利用して、楽な姿勢で光ビーコン
の取捨選択を行なうことが可能である。Therefore, the information terminal 130 with the ID recognition camera according to the present embodiment is provided with the capture button and the image & ID storage section 135, and the ID recognition camera 1
The configuration is such that the selection operation of the optical beacon can be performed even when 31 is not held over the optical beacon. The user points the information terminal 130 toward the desired real-world object,
When the desired optical beacon is captured by the ID recognition camera 131, that is, when the display unit 133 of the information terminal 130 indicates that the optical beacon is recognized, the capture button is pressed. On the information terminal 130 side, in response to the pressing operation, the captured image and the I detected from the image are detected.
Image & ID of D (information received from optical beacon 110)
It is recorded in the storage unit 135. When the photographing of the optical beacon is completed in this way, the user can use the photographed image displayed on the display unit 133 again to select the optical beacon in a comfortable posture.
【0112】また、あちらこちらで、実世界風景を何枚
も記録しておいて、時間のあるときにゆっくりと撮影画
像を眺めて所望の光ビーコンの情報にアクセスするとい
った使い方も可能である。It is also possible to record many real world landscapes here and there, and slowly view the photographed image to access the information of the desired optical beacon when time is available.
【0113】また、モニタに設置された光ビーコンがモ
ニタの内容に従って光ビーコンのコードが変化するよう
な場合には、ユーザが光ビーコンを確認し選択している
間に、光ビーコンの情報が変わってしまうことも考えら
れ、ユーザにとってはとても使い勝手が悪い。これに対
し、本実施形態によれば、こういった場合にも、キャプ
チャ・ボタンを押すことで簡単に光ビーコンを記録する
ことができるので、光ビーコンの情報を確実に取得する
ことでき、その効力は絶大である。When the code of the optical beacon of the optical beacon installed on the monitor changes according to the contents of the monitor, the information of the optical beacon changes while the user confirms and selects the optical beacon. It is also possible that the user may find it difficult to use. On the other hand, according to the present embodiment, even in such a case, since the optical beacon can be easily recorded by pressing the capture button, it is possible to reliably acquire the information of the optical beacon. The potency is great.
【0114】図14には、ID認識カメラ付き情報端末
130を用いて実世界上の光ビーコン110から照射さ
れる光学的信号を基に実現される情報処理サービスの様
子を図解している。但し、図示の例では、あるビル上に
設置されている3つの光ビーコン110−1〜110−
3を同時に捕捉しているものとする。また、図15に
は、光ビーコン110を利用した情報処理サービスの処
理手順をフローチャートの形式で示している。この情報
処理サービスは、実際には、コンピュータ部132内の
CPUが所定のプログラム・コードを実行するという形
態で実現される。FIG. 14 illustrates a state of an information processing service realized based on an optical signal emitted from the optical beacon 110 in the real world using the information terminal 130 with the ID recognition camera. However, in the illustrated example, three optical beacons 110-1 to 110-installed on a building.
It is assumed that 3 is captured at the same time. Further, FIG. 15 shows a processing procedure of an information processing service using the optical beacon 110 in the form of a flowchart. This information processing service is actually realized by the CPU in the computer unit 132 executing a predetermined program code.
【0115】以下、図14及び図15を参照しながら、
光ビーコン110を利用した情報処理サービスについて
説明する。Hereinafter, referring to FIG. 14 and FIG.
An information processing service using the optical beacon 110 will be described.
【0116】まず、情報端末130に搭載されているI
D認識カメラ131がビルや広告看板を含む実世界風景
を撮影して、その撮影画像に含まれている光ビーコン1
10−1〜110−3から識別情報を取得する(ステッ
プS1)。ここで言う識別情報とは、光ビーコン110
が送出する光の点滅パターンから復号される送信データ
と、撮影画像上で光ビーコンが検出された位置(XY座
標系で表わされる)のことである。First, I installed in the information terminal 130
The D recognition camera 131 photographs a real world landscape including buildings and advertising signs, and the optical beacon 1 included in the photographed image.
Identification information is acquired from 10-1 to 110-3 (step S1). The identification information referred to here is the optical beacon 110.
The transmission data decoded from the blinking pattern of the light transmitted by and the position where the optical beacon is detected on the captured image (represented by the XY coordinate system).
【0117】次いで、表示部133では、ID認識カメ
ラ131によって撮影された実世界風景画像を表示出力
する。このとき、先行ステップS1により取得された識
別情報を、各光ビーコン110−1〜110−3を検出
した場所又はその近傍にオーバーレイ表示する(ステッ
プS2)。識別情報の表示形態は、文字、アイコンなど
特に限定されない。例えば、図14に示すように「吹き
出し」を用いてもよい。Then, the display unit 133 displays and outputs the real world landscape image photographed by the ID recognition camera 131. At this time, the identification information acquired in the preceding step S1 is overlay-displayed on the place where the optical beacons 110-1 to 110-3 are detected or in the vicinity thereof (step S2). The display form of the identification information is not particularly limited to characters, icons, and the like. For example, a “balloon” may be used as shown in FIG.
【0118】ここで、ユーザがキャプチャ・ボタン13
3Aを押下操作したときには(ステップS3)、これに
応答して、ID認識カメラ131による実世界の撮影画
像を、取得された識別情報と関連付けて、画像&ID記
憶部135に記録する(ステップS4)。Here, the user selects the capture button 13
When 3A is pressed (step S3), in response to this, the captured image of the real world by the ID recognition camera 131 is recorded in the image & ID storage unit 135 in association with the acquired identification information (step S4). .
【0119】また、キャプチャ・ボタン133Aが押さ
れなければ、ステップS1に戻って、上述と同様に、I
D認識カメラ131が実世界風景を撮影して、撮影画像
に含まれる光ビーコン110から発される識別情報を解
析して、表示部133の表示画面上で解析結果を撮影画
像にオーバーレイ表示させる。If the capture button 133A is not pressed, the process returns to step S1 and, as described above, I
The D recognition camera 131 photographs the real world landscape, analyzes the identification information emitted from the optical beacon 110 included in the photographed image, and displays the analysis result on the photographed image on the display screen of the display unit 133.
【0120】このように撮影画像と画像の中から検出さ
れたID(光ビーコン110から受信した情報)を画像
&ID記憶部135に記録することにより、ステップS
5以降では、光ビーコンの撮影を終えた後、ユーザは、
改めて表示部133で表示されている撮影画像を利用し
て、楽な姿勢で光ビーコンの取捨選択を行なうことが可
能である。また、あちらこちらで、実世界風景を何枚も
記録しておいて、時間のあるときにゆっくりと撮影画像
を眺めて所望の光ビーコンの情報にアクセスするといっ
た使い方も可能である。By recording the photographed image and the ID (information received from the optical beacon 110) detected from the image in the image & ID storage unit 135 in this way, step S
After 5, after the user finished shooting the optical beacon, the user
By using the captured image displayed on the display unit 133 again, it is possible to select the optical beacon in a comfortable posture. It is also possible to record many real world landscapes here and there and slowly view the captured image to access the desired optical beacon information when time is available.
【0121】図16には、表示部133の表示画面上で
提示されている拡張サービス画面の構成例を示してい
る。FIG. 16 shows an example of the configuration of the extended service screen presented on the display screen of the display unit 133.
【0122】画像&ID記憶部135から所望の撮影画
像を取り出して、図16(A)に示すように、撮影画像
とこれに含まれる光ビーコン110−1〜110〜3か
ら得られた識別情報がオーバーレイ表示される(ステッ
プS5)。図示の画面上では、各光ビーコン110−1
〜110−3の表示位置には識別情報が表わすURLな
どのリンク先情報や、その他の情報処理サービスを起動
するためのアンカーが埋設されている。図示の例では、
各光ビーコン110−1〜110−3がそれぞれレコー
ド店A、レストランB、エリア情報Cというメニューに
相当する。A desired photographed image is taken out from the image & ID storage unit 135, and as shown in FIG. 16 (A), the photographed image and the identification information obtained from the optical beacons 110-1 to 110-3 included therein are stored. An overlay is displayed (step S5). On the screen shown, each optical beacon 110-1
At the display positions of 110 to 110-3, link destination information such as a URL represented by the identification information and anchors for starting other information processing services are embedded. In the example shown,
Each of the optical beacons 110-1 to 110-3 corresponds to a menu of record store A, restaurant B, and area information C, respectively.
【0123】ユーザは、このような表示画面上で、カー
ソル・ボタン134Dを用いて上下移動することによ
り、所望のメニューを選択することができる。選択状態
のメニューは、例えば強調表示(又は反転表示)に切り
替えられる。図16(A)ではレストランBが選択され
ており、図16(B)ではカーソル移動によりエリア店
情報Cが選択されている。The user can select a desired menu by moving up and down using the cursor button 134D on such a display screen. The menu in the selected state is switched to, for example, highlighted display (or reverse display). In FIG. 16A, the restaurant B is selected, and in FIG. 16B, the area store information C is selected by moving the cursor.
【0124】ここで、興味のあるメニューを発見できな
かった場合には、EXITボタン134Eを押下操作す
ることにより、表示中の実世界風景画像の処理を終了す
ることができる(ステップS6)。この場合、ステップ
S1に戻って、上述と同様に、ID認識カメラ131が
次の実世界風景を撮影して、撮影画像に含まれる光ビー
コン110から発される識別情報を解析して、表示部1
33の表示画面上で解析結果を撮影画像にオーバーレイ
表示させる。あるいは、EXITボタン134Eの操作
により、拡張サービス自体を終了させて、ホーム画面
(又はトップ画面:図示しない)に復帰するようにして
もよい。If the menu of interest cannot be found, the EXIT button 134E is pressed to terminate the processing of the real-world scenery image being displayed (step S6). In this case, returning to step S1, the ID recognition camera 131 photographs the next real world landscape, analyzes the identification information emitted from the optical beacon 110 included in the photographed image, and displays it on the display unit, as described above. 1
The analysis result is overlaid on the captured image on the display screen 33. Alternatively, the extended service itself may be terminated and the home screen (or top screen: not shown) may be returned by operating the EXIT button 134E.
【0125】一方、EXITボタン134Eではなく選
択ボタン134Bを押下操作することにより、選択状態
のメニュー(光ビーコン)の選択が確定する(ステップ
S7)。On the other hand, by pressing the select button 134B instead of the EXIT button 134E, the selection of the menu (optical beacon) in the selected state is confirmed (step S7).
【0126】この選択動作に応答して、選択された識別
情報が表わすリンク先への接続動作が開始する(ステッ
プS8)。このとき、情報端末130内部では、ネット
ワーク・インターフェース部136を介して識別情報が
URLやIPアドレスなどで表わす接続先への接続を行
ない、コンピュータ・ネットワーク上の該当するサーバ
(例えばサービス・プロバイダ135)から情報コンテ
ンツのダウンロードを実行する。In response to this selecting operation, the connecting operation to the link destination indicated by the selected identification information is started (step S8). At this time, inside the information terminal 130, a connection is made to a connection destination whose identification information is represented by a URL, an IP address, or the like via the network interface unit 136, and a corresponding server on the computer network (for example, the service provider 135). Download information content from.
【0127】サービス・プロバイダ135からのダウン
ロード処理には時間を要するので、ダウンロード実行中
であることを視覚的に表わすべく、表示部133では図
16(C)に示すような処理画面を表示出力させてもよ
い。Since the process of downloading from the service provider 135 takes time, the display unit 133 displays and outputs a process screen as shown in FIG. 16C in order to visually indicate that the download is being executed. May be.
【0128】その後、サービス・プロバイダ135から
のダウンロード処理が成功裏に終了すると、受け取った
情報を表示部133で画面出力する。図16(D)には
このときの画面構成例を示している。After that, when the download processing from the service provider 135 ends successfully, the received information is output on the screen of the display unit 133. FIG. 16D shows a screen configuration example at this time.
【0129】サービス・プロバイダ135が提供する表
示情報は、例えばHTML(HyperText Markup Languag
e)形式で記述されている。図示の例では、エリア情報
として、レストラン情報、イベント情報、周辺エリア・
マップなどさらに詳細な情報へリンクされているメニュ
ー又はアンカーが用意されている。ユーザはさらにメニ
ュー選択することにより、同様にコンピュータ・ネット
ワーク上での情報探索処理を行なう。The display information provided by the service provider 135 is, for example, HTML (HyperText Markup Languag).
e) format. In the illustrated example, the area information includes restaurant information, event information, and surrounding areas.
There are menus or anchors linked to more detailed information such as maps. The user also performs information search processing on the computer network by further selecting a menu.
【0130】[追補]以上、特定の実施形態を参照しな
がら、本発明について詳解してきた。しかしながら、本
発明の要旨を逸脱しない範囲で当業者が該実施形態の修
正や代用を成し得ることは自明である。すなわち、例示
という形態で本発明を開示してきたのであり、本明細書
の記載内容を限定的に解釈するべきではない。本発明の
要旨を判断するためには、冒頭に記載した特許請求の範
囲の欄を参酌すべきである。[Supplement] The present invention has been described in detail with reference to the specific embodiment. However, it is obvious that those skilled in the art can modify or substitute the embodiments without departing from the scope of the present invention. That is, the present invention has been disclosed in the form of exemplification, and the contents of this specification should not be construed in a limited manner. In order to determine the gist of the present invention, the section of the claims described at the beginning should be taken into consideration.
【0131】[0131]
【発明の効果】以上詳記したように、本発明によれば、
表示画面を介してユーザの選択操作を受容して所定の処
理を好適に起動することができる、優れた情報処理装置
及び情報処理方法、記憶媒体、並びにコンピュータ・プ
ログラムを提供することができる。As described above in detail, according to the present invention,
It is possible to provide an excellent information processing apparatus and information processing method, a storage medium, and a computer program capable of accepting a user's selection operation via a display screen and suitably activating a predetermined process.
【0132】また、本発明によれば、実世界風景の撮影
画像上での好適なユーザ操作環境を提供することができ
る、優れた情報処理装置及び情報処理方法、記憶媒体、
並びにコンピュータ・プログラムを提供することができ
る。Further, according to the present invention, an excellent information processing apparatus and information processing method, a storage medium, which can provide a suitable user operation environment on a photographed image of a real world landscape,
Also, a computer program can be provided.
【0133】また、本発明によれば、視認性の識別情報
が配置された実世界風景の撮影画像から所望の識別情報
を選択するための好適な操作環境を提供することができ
る、優れた情報処理装置及び情報処理方法、記憶媒体、
並びにコンピュータ・プログラムを提供することができ
る。Further, according to the present invention, it is possible to provide a suitable operating environment for selecting desired identification information from a photographed image of a real-world landscape in which visibility identification information is arranged. Processing device, information processing method, storage medium,
Also, a computer program can be provided.
【0134】本発明を実現した携帯型の情報端末は、例
えば「画像&ID記憶部」と「キャプチャ・ボタン」が
配設されている。そして、ユーザが所望の光ビーコンの
方に携帯端末を向けて、携帯端末の表示画面に光ビーコ
ンが認識されたことが示されたときに、「キャプチャ・
ボタン」を押して、画像とID(すなわち、光ビーコン
から受信した情報)を「画像&ID記憶部」に記録す
る。その後、このキャプチャ画像を画面表示したとき
に、ユーザは楽な姿勢で光ビーコンの選択をすることが
できる。The portable information terminal that realizes the present invention is provided with, for example, an “image & ID storage section” and a “capture button”. Then, when the user points the mobile terminal at the desired optical beacon and the display screen of the mobile terminal indicates that the optical beacon is recognized,
Press the button to record the image and ID (ie, the information received from the optical beacon) in the "image & ID storage". After that, when the captured image is displayed on the screen, the user can select the optical beacon in a comfortable posture.
【図1】光ビーコンを使用するデータ通信システム10
の構成を模式的に示した図である。FIG. 1 is a data communication system 10 using an optical beacon.
It is the figure which showed the structure of.
【図2】送信機20の内部構成を模式的に示した図であ
る。FIG. 2 is a diagram schematically showing an internal configuration of a transmitter 20.
【図3】送信機20内のデータ処理部22の内部構成を
示した図である。FIG. 3 is a diagram showing an internal configuration of a data processing unit 22 in the transmitter 20.
【図4】受信機50の受光ブロック51の構成を模式的
に示した図である。FIG. 4 is a diagram schematically showing a configuration of a light receiving block 51 of a receiver 50.
【図5】受信機50における1つの受光ブロック51の
内部構成を模式的に示した図である。5 is a diagram schematically showing an internal configuration of one light receiving block 51 in the receiver 50. FIG.
【図6】受信機50内のデータ処理部60の内部構成を
模式的に示した図である。FIG. 6 is a diagram schematically showing an internal configuration of a data processing unit 60 in the receiver 50.
【図7】送信機20側のデータ送信処理手順を示したフ
ローチャートである。FIG. 7 is a flowchart showing a data transmission processing procedure on the transmitter 20 side.
【図8】光学的信号を利用したデータ通信システム10
においてデータ伝送に使用されるデータ・フレームの形
式を示した図である。FIG. 8 is a data communication system 10 using optical signals.
FIG. 6 is a diagram showing a format of a data frame used for data transmission in FIG.
【図9】図7に示したデータ送信処理のうち、ステップ
S3におけるデータ・フレーム生成の詳細な処理手順を
示したフローチャートである。9 is a flowchart showing a detailed processing procedure of data frame generation in step S3 of the data transmission processing shown in FIG.
【図10】パターン表示部23から光学的に分別可能な
パターンの形式で送出されたデータを受信機50側で受
信処理するための手順を示したフローチャートである。FIG. 10 is a flowchart showing a procedure for receiving processing on the receiver 50 side of data transmitted from the pattern display section 23 in the form of an optically distinguishable pattern.
【図11】作業メモリ54内に設けられた受信データ・
バッファの構成を模式的に示した図である。FIG. 11 shows reception data provided in the working memory 54.
It is the figure which showed the structure of the buffer typically.
【図12】本実施形態に係る拡張現実感システム100
の構成を模式的に示した図である。FIG. 12 is an augmented reality system 100 according to this embodiment.
It is the figure which showed the structure of.
【図13】ID認識カメラ付き情報端末130の内部構
成を示した図である。FIG. 13 is a diagram showing an internal configuration of an information terminal with an ID recognition camera 130.
【図14】ID認識カメラ付き情報端末130を用いて
実世界上の光ビーコン110から照射される光学的信号
を基に実現される情報処理サービスの様子を示した図で
ある。FIG. 14 is a diagram showing a state of an information processing service realized based on an optical signal emitted from an optical beacon 110 in the real world using an ID recognition camera-equipped information terminal 130.
【図15】光ビーコン110を利用した情報処理サービ
スの処理手順を示したフローチャートである。FIG. 15 is a flowchart showing a processing procedure of an information processing service using the optical beacon 110.
【図16】表示部133の表示画面上で提示される拡張
サービス画面の構成例を示した図である。16 is a diagram showing a configuration example of an extended service screen presented on the display screen of the display unit 133. FIG.
【符号の説明】 10…データ通信システム 20…送信機 21…LED 22…データ処理部 23…送信データ保存用メモリ 24…作業用メモリ 50…受信機 51…受光ブロック 60…データ処理部 61…制御部 62…転送データ保存用メモリ 63…転送データ処理用メモリ 64…フレーム・メモリ 70…アプリケーション部 81…受光素子 82…バンド・パス・フィルタ 83…フェーズ・ロック・ループ 84…A/D変換器 85…撮像データ保存用メモリ 86…2値化データ保存用メモリ 87…転送データ保存用メモリ 88…制御部 100…拡張現実感システム 110…光ビーコン 130…ID認識カメラ付き情報端末 131…ID認識カメラ 132…コンピュータ部 133…表示部 134…ユーザ入力部 135…画像&ID記憶部 136…ネットワーク・インターフェース部 150…サービス・プロバイダ[Explanation of symbols] 10 ... Data communication system 20 ... Transmitter 21 ... LED 22 ... Data processing unit 23 ... Transmission data storage memory 24 ... Working memory 50 ... Receiver 51 ... Light receiving block 60 ... Data processing unit 61 ... Control unit 62 ... Memory for storing transfer data 63 ... Transfer data processing memory 64 ... Frame memory 70 ... Application Department 81 ... Light receiving element 82 ... Band pass filter 83 ... Phase lock loop 84 ... A / D converter 85 ... Memory for storing imaging data 86 ... Memory for storing binarized data 87 ... Memory for storing transfer data 88 ... Control unit 100 ... Augmented Reality System 110 ... Optical beacon 130 ... Information terminal with ID recognition camera 131 ... ID recognition camera 132 ... Computer section 133 ... Display unit 134 ... User input section 135 ... Image & ID storage section 136 ... Network interface section 150 ... Service Provider
───────────────────────────────────────────────────── フロントページの続き (72)発明者 小柳津 秀紀 東京都品川区東五反田1丁目14番10号 株 式会社ソニー木原研究所内 Fターム(参考) 5B057 AA20 BA02 CA12 CA16 CE08 DA07 DA16 DB02 5E501 AA04 AB03 AB15 AC25 BA03 BA05 BA08 BA09 BA17 CA04 CA05 CB02 CB14 EB05 FA02 FA05 FB44 ─────────────────────────────────────────────────── ─── Continued front page (72) Inventor Hidenori Koyanazu 1-14-10 Higashi Gotanda, Shinagawa-ku, Tokyo Stock Ceremony company Sony Kihara Laboratory F-term (reference) 5B057 AA20 BA02 CA12 CA16 CE08 DA07 DA16 DB02 5E501 AA04 AB03 AB15 AC25 BA03 BA05 BA08 BA09 BA17 CA04 CA05 CB02 CB14 EB05 FA02 FA05 FB44
Claims (16)
る情報処理装置であって、 視認性の識別情報を含んだ実世界上の風景画像を入力す
る画像入力手段と、 入力画像に含まれる視認性の識別情報を復号化する復号
化手段と、 入力画像と復号化結果を関連付けて保存する記憶手段
と、 前記記憶手段から読み出された入力画像を表示する画像
表示手段と、 前記画像表示手段の表示画面上に出現する視認性の識別
情報に対するユーザ選択操作を受容するユーザ入力手段
と、 ユーザが選択した視認性の識別情報に対応する処理サー
ビスを起動するサービス実行手段と、を具備することを
特徴とする情報処理装置。1. An information processing apparatus for starting a predetermined process in response to a user operation, comprising image input means for inputting a landscape image in the real world including visibility identification information, and an image input means included in the input image. Decoding means for decoding the visible identification information, storage means for storing the input image and the decoding result in association with each other, image display means for displaying the input image read from the storage means, and the image User input means for receiving a user selection operation for the visibility identification information appearing on the display screen of the display means, and service execution means for activating a processing service corresponding to the visibility identification information selected by the user. An information processing device characterized by:
るバイト列を光学的に分別可能な1以上のパターンとし
て表示されている、ことを特徴とする請求項1に記載の
情報処理装置。2. The information processing apparatus according to claim 1, wherein the visibility identification information is displayed as one or more patterns capable of optically discriminating byte strings forming data. .
実世界上の風景画像を入力する、ことを特徴とする請求
項1に記載の情報処理装置。3. The information processing apparatus according to claim 1, wherein the image input means inputs a landscape image in the real world in response to a capture instruction.
検出したことに応答して実世界上の風景画像を入力す
る、ことを特徴とする請求項1に記載の情報処理装置。4. The information processing apparatus according to claim 1, wherein said image input means inputs a landscape image in the real world in response to detection of visibility identifying information.
だ2以上の実世界風景画像を同時に保存可能である、こ
とを特徴とする請求項1に記載の情報処理装置。5. The information processing apparatus according to claim 1, wherein the storage means is capable of simultaneously storing two or more real world landscape images including visibility identification information.
れた視認性識別情報又はその復号結果を入力画像上にオ
ーバーレイ表示する、ことを特徴とする請求項1に記載
の情報処理装置。6. The information processing apparatus according to claim 1, wherein the image display means overlay-displays the visibility identification information detected from the input image or the decoding result thereof on the input image.
すネットワーク上の情報資源識別子を基に、前記ネット
ワーク接続手段を介して情報探索を行なう、ことを特徴
とする請求項1に記載の情報処理装置。7. The network connection means is further provided, and the service execution means performs information search via the network connection means based on an information resource identifier on the network represented by the visibility identification information. The information processing apparatus according to claim 1, which is characterized in that.
る情報処理方法であって、 視認性の識別情報を含んだ実世界上の風景画像を入力す
る画像入力ステップと、 入力画像に含まれる視認性の識別情報を復号化する復号
化ステップと、 入力画像と復号化結果を関連付けて保存する記憶ステッ
プと、 前記記憶ステップにおいて記憶された入力画像を表示す
る画像表示ステップと、 前記画像表示ステップにおいて表示される画面上に出現
する視認性の識別情報に対するユーザ選択操作を受容す
るユーザ入力ステップと、 ユーザが選択した視認性の識別情報に対応する処理サー
ビスを起動するサービス実行ステップと、を具備するこ
とを特徴とする情報処理方法。8. An information processing method for activating a predetermined process in response to a user operation, comprising an image input step of inputting a landscape image in the real world including visibility identification information, and an image input step included in the input image. A decoding step of decoding visible identification information, a storage step of storing the input image and the decoding result in association with each other, an image display step of displaying the input image stored in the storage step, and the image display A user input step of accepting a user selection operation for the visibility identification information appearing on the screen displayed in the step, and a service execution step of activating a processing service corresponding to the visibility identification information selected by the user. An information processing method comprising:
るバイト列を光学的に分別可能な1以上のパターンとし
て表示されている、ことを特徴とする請求項8に記載の
情報処理方法。9. The information processing method according to claim 8, wherein the visibility identification information is displayed as one or more patterns capable of optically discriminating byte strings forming data. .
応答して実世界上の風景画像を入力する、ことを特徴と
する請求項8に記載の情報処理方法。10. The information processing method according to claim 8, wherein in the image input step, a landscape image in the real world is input in response to a capture instruction.
別情報を検出したことに応答して実世界上の風景画像を
入力する、ことを特徴とする請求項8に記載の情報処理
方法。11. The information processing method according to claim 8, wherein in the image input step, a landscape image in the real world is input in response to detection of the visibility identification information.
報を含んだ2以上の実世界風景画像を同時に保存可能で
ある、ことを特徴とする請求項8に記載の情報処理方
法。12. The information processing method according to claim 8, wherein in the storing step, two or more real world landscape images including visibility identification information can be stored at the same time.
ら検出された視認性識別情報又はその復号結果を入力画
像上にオーバーレイ表示する、ことを特徴とする請求項
8に記載の情報処理方法。13. The information processing method according to claim 8, wherein in the image displaying step, the visibility identification information detected from the input image or a decoding result thereof is overlay-displayed on the input image.
認性の識別情報が表わすネットワーク上の情報資源識別
子を基に情報探索を行なう、ことを特徴とする請求項8
に記載の情報処理方法。14. An information search is performed based on an information resource identifier on a network represented by the visibility identification information in the service execution step.
Information processing method described in.
するための処理をコンピュータ・システム上で実行する
ように記述されたコンピュータ・ソフトウェアをコンピ
ュータ可読形式で物理的に格納した記憶媒体であって、
前記コンピュータ・ソフトウェアは、 視認性の識別情報を含んだ実世界上の風景画像を入力す
る画像入力ステップと、 入力画像に含まれる視認性の識別情報を復号化する復号
化ステップと、 入力画像と復号化結果を関連付けて保存する記憶ステッ
プと、 前記記憶ステップにおいて記憶された入力画像を表示す
る画像表示ステップと、 前記画像表示ステップにおいて表示される画面上に出現
する視認性の識別情報に対するユーザ選択操作を受容す
るユーザ入力ステップと、 ユーザが選択した視認性の識別情報に対応する処理サー
ビスを起動するサービス実行ステップと、を具備するこ
とを特徴とする記憶媒体。15. A storage medium that physically stores computer software in a computer-readable format that is described to execute a process for activating a predetermined operation in response to a user operation on a computer system. ,
The computer software includes an image input step of inputting a landscape image in the real world including visibility identification information, a decoding step of decoding the visibility identification information included in the input image, and an input image, A storage step of associating and storing the decoding result, an image display step of displaying the input image stored in the storage step, and a user selection for visibility identification information appearing on the screen displayed in the image display step. A storage medium comprising: a user input step of accepting an operation; and a service execution step of activating a processing service corresponding to the visibility identification information selected by the user.
するための処理をコンピュータ・システム上で実行する
ようにコンピュータ可読形式で記述されたコンピュータ
・プログラムであって、 視認性の識別情報を含んだ実世界上の風景画像を入力す
る画像入力ステップと、 入力画像に含まれる視認性の識別情報を復号化する復号
化ステップと、 入力画像と復号化結果を関連付けて保存する記憶ステッ
プと、 前記記憶ステップにおいて記憶された入力画像を表示す
る画像表示ステップと、 前記画像表示ステップにおいて表示される画面上に出現
する視認性の識別情報に対するユーザ選択操作を受容す
るユーザ入力ステップと、 ユーザが選択した視認性の識別情報に対応する処理サー
ビスを起動するサービス実行ステップと、を具備するこ
とを特徴とするコンピュータ・プログラム。16. A computer program written in a computer-readable format so as to execute a process for activating a predetermined operation in response to a user operation on a computer system, the information including visibility identification information. An image input step of inputting a landscape image in the real world, a decoding step of decoding visibility identification information included in the input image, a storage step of storing the input image and the decoding result in association with each other, An image display step of displaying the input image stored in the storage step; a user input step of accepting a user selection operation for the visibility identification information appearing on the screen displayed in the image display step; A service execution step of activating a processing service corresponding to the visibility identification information. Computer programs and features.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002132228A JP2003323239A (en) | 2002-05-08 | 2002-05-08 | Information processing apparatus and information processing method, storage medium, and computer program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002132228A JP2003323239A (en) | 2002-05-08 | 2002-05-08 | Information processing apparatus and information processing method, storage medium, and computer program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2003323239A true JP2003323239A (en) | 2003-11-14 |
| JP2003323239A5 JP2003323239A5 (en) | 2005-09-29 |
Family
ID=29544429
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2002132228A Pending JP2003323239A (en) | 2002-05-08 | 2002-05-08 | Information processing apparatus and information processing method, storage medium, and computer program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2003323239A (en) |
Cited By (23)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2006013755A1 (en) * | 2004-08-05 | 2006-02-09 | Japan Science And Technology Agency | Information processing system using spatial optical communication, and spatial optical communication system |
| WO2006043319A1 (en) * | 2004-10-20 | 2006-04-27 | Fujitsu Limited | Terminal and server |
| WO2006048987A1 (en) * | 2004-11-02 | 2006-05-11 | Japan Science And Technology Agency | Image pickup device, and its signal reading method |
| JP2006287383A (en) * | 2005-03-31 | 2006-10-19 | Casio Comput Co Ltd | Information transmission system, imaging apparatus, and light reception control method |
| JP2007058296A (en) * | 2005-08-22 | 2007-03-08 | Fujifilm Holdings Corp | Information providing system |
| JP2007264905A (en) * | 2006-03-28 | 2007-10-11 | Casio Comput Co Ltd | Information transmission system, guidance device, guidance method, and guidance program |
| JP2007286569A (en) * | 2006-03-24 | 2007-11-01 | Fujifilm Corp | Information providing apparatus, information providing system, and information providing method |
| JP2007295446A (en) * | 2006-04-27 | 2007-11-08 | Kyocera Corp | Information processing apparatus and data recording / storing method |
| JP2008035152A (en) * | 2006-07-28 | 2008-02-14 | Casio Comput Co Ltd | Image processing apparatus, image processing method, and image processing program |
| JP2008035154A (en) * | 2006-07-28 | 2008-02-14 | Casio Comput Co Ltd | Image processing apparatus, image processing method, and image processing program |
| JP2008311845A (en) * | 2007-06-13 | 2008-12-25 | Panasonic Corp | Optical space transmission equipment |
| JP2009027747A (en) * | 2004-05-31 | 2009-02-05 | Casio Comput Co Ltd | Imaging apparatus and program |
| US7502053B2 (en) | 2005-07-29 | 2009-03-10 | Japan Science And Technology Agency | Information-processing device and information-processing system |
| JP2009290530A (en) * | 2008-05-29 | 2009-12-10 | Casio Comput Co Ltd | Information transmitting system, information decoding apparatus, method of annunciation and program |
| WO2012023253A1 (en) * | 2010-08-20 | 2012-02-23 | パナソニック株式会社 | Reception display device, information transmission device, optical wireless communication system, integrated circuit for reception display, integrated circuit for information transmission, reception display program, information transmission program, optical wireless communication method |
| JP2012048648A (en) * | 2010-08-30 | 2012-03-08 | Ntt Data Corp | Information service system and information service method |
| WO2012132334A1 (en) * | 2011-03-31 | 2012-10-04 | Sony Corporation | Display control device, display control method, and program |
| JP2013506218A (en) * | 2009-10-01 | 2013-02-21 | オラワークス・インコーポレイテッド | Method for performing visual search based on movement or posture of terminal, terminal and computer-readable recording medium |
| JP2013080394A (en) * | 2011-10-04 | 2013-05-02 | Canon Inc | Display control device, control method of display control device, and program |
| EP1744475A4 (en) * | 2004-05-31 | 2013-05-08 | Casio Computer Co Ltd | INFORMATION RECEIVING DEVICE, INFORMATION TRANSMISSION SYSTEM, AND INFORMATION RECEIVING METHOD |
| JP2013518275A (en) * | 2010-01-29 | 2013-05-20 | インテル・コーポレーション | Method for providing information on object not included in field of view of terminal device, terminal device, and computer-readable recording medium |
| US9621368B2 (en) | 2011-04-19 | 2017-04-11 | Samsung Electronics Co., Ltd. | Method for displaying status of power consumption and portable device thereof |
| WO2018158118A1 (en) * | 2017-03-02 | 2018-09-07 | Philips Lighting Holding B.V. | Selecting from content items associated with different light beacons |
Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH064834U (en) * | 1992-06-22 | 1994-01-21 | 大日本スクリーン製造株式会社 | Data processing device |
| JPH0686210A (en) * | 1991-08-02 | 1994-03-25 | Grass Valley Group Inc:The | Method for interfacing of video editing operation |
| JPH07160456A (en) * | 1993-12-06 | 1995-06-23 | Dainippon Screen Mfg Co Ltd | Image processor |
| JPH07303234A (en) * | 1994-05-09 | 1995-11-14 | Canon Inc | Image editing equipment |
| JPH07303209A (en) * | 1994-05-06 | 1995-11-14 | Matsushita Electric Ind Co Ltd | Special effect editing device |
| JPH08339283A (en) * | 1995-06-14 | 1996-12-24 | Matsushita Electric Ind Co Ltd | Graphic processing apparatus and graphic processing method |
| JPH10105360A (en) * | 1996-09-26 | 1998-04-24 | Meidensha Corp | Automatic constituting method for menu |
| JPH10149669A (en) * | 1996-09-20 | 1998-06-02 | Sony Corp | Editing system, editing method, clip management device, and clip management method |
| JPH10313421A (en) * | 1997-05-12 | 1998-11-24 | Matsushita Electric Ind Co Ltd | Data transmission device, data reception display recording device, and information camera system |
| JP2001142825A (en) * | 1999-11-18 | 2001-05-25 | Sony Corp | Portable information processing terminal, information input / output system and information input / output method |
| JP2002027349A (en) * | 2000-07-05 | 2002-01-25 | Sony Corp | Link information display device and display method thereof |
-
2002
- 2002-05-08 JP JP2002132228A patent/JP2003323239A/en active Pending
Patent Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0686210A (en) * | 1991-08-02 | 1994-03-25 | Grass Valley Group Inc:The | Method for interfacing of video editing operation |
| JPH064834U (en) * | 1992-06-22 | 1994-01-21 | 大日本スクリーン製造株式会社 | Data processing device |
| JPH07160456A (en) * | 1993-12-06 | 1995-06-23 | Dainippon Screen Mfg Co Ltd | Image processor |
| JPH07303209A (en) * | 1994-05-06 | 1995-11-14 | Matsushita Electric Ind Co Ltd | Special effect editing device |
| JPH07303234A (en) * | 1994-05-09 | 1995-11-14 | Canon Inc | Image editing equipment |
| JPH08339283A (en) * | 1995-06-14 | 1996-12-24 | Matsushita Electric Ind Co Ltd | Graphic processing apparatus and graphic processing method |
| JPH10149669A (en) * | 1996-09-20 | 1998-06-02 | Sony Corp | Editing system, editing method, clip management device, and clip management method |
| JPH10105360A (en) * | 1996-09-26 | 1998-04-24 | Meidensha Corp | Automatic constituting method for menu |
| JPH10313421A (en) * | 1997-05-12 | 1998-11-24 | Matsushita Electric Ind Co Ltd | Data transmission device, data reception display recording device, and information camera system |
| JP2001142825A (en) * | 1999-11-18 | 2001-05-25 | Sony Corp | Portable information processing terminal, information input / output system and information input / output method |
| JP2002027349A (en) * | 2000-07-05 | 2002-01-25 | Sony Corp | Link information display device and display method thereof |
Cited By (37)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009027747A (en) * | 2004-05-31 | 2009-02-05 | Casio Comput Co Ltd | Imaging apparatus and program |
| EP1744475A4 (en) * | 2004-05-31 | 2013-05-08 | Casio Computer Co Ltd | INFORMATION RECEIVING DEVICE, INFORMATION TRANSMISSION SYSTEM, AND INFORMATION RECEIVING METHOD |
| US7715723B2 (en) | 2004-08-05 | 2010-05-11 | Japan Science And Technology Agency | Information-processing system using free-space optical communication and free-space optical communication system |
| WO2006013755A1 (en) * | 2004-08-05 | 2006-02-09 | Japan Science And Technology Agency | Information processing system using spatial optical communication, and spatial optical communication system |
| WO2006043319A1 (en) * | 2004-10-20 | 2006-04-27 | Fujitsu Limited | Terminal and server |
| JPWO2006048987A1 (en) * | 2004-11-02 | 2008-05-22 | 独立行政法人科学技術振興機構 | Imaging apparatus and signal readout method thereof |
| US7728893B2 (en) | 2004-11-02 | 2010-06-01 | Japan Science And Technology Agency | Imaging device and method for reading signals from such device |
| JP4539924B2 (en) * | 2004-11-02 | 2010-09-08 | 独立行政法人科学技術振興機構 | Imaging apparatus and signal readout method thereof |
| WO2006048987A1 (en) * | 2004-11-02 | 2006-05-11 | Japan Science And Technology Agency | Image pickup device, and its signal reading method |
| JP2006287383A (en) * | 2005-03-31 | 2006-10-19 | Casio Comput Co Ltd | Information transmission system, imaging apparatus, and light reception control method |
| US7502053B2 (en) | 2005-07-29 | 2009-03-10 | Japan Science And Technology Agency | Information-processing device and information-processing system |
| JP2007058296A (en) * | 2005-08-22 | 2007-03-08 | Fujifilm Holdings Corp | Information providing system |
| JP2007286569A (en) * | 2006-03-24 | 2007-11-01 | Fujifilm Corp | Information providing apparatus, information providing system, and information providing method |
| US8259176B2 (en) | 2006-03-24 | 2012-09-04 | Fujifilm Corporation | Information provision apparatus, information provision system and information provision method |
| JP2007264905A (en) * | 2006-03-28 | 2007-10-11 | Casio Comput Co Ltd | Information transmission system, guidance device, guidance method, and guidance program |
| JP2007295446A (en) * | 2006-04-27 | 2007-11-08 | Kyocera Corp | Information processing apparatus and data recording / storing method |
| JP2008035154A (en) * | 2006-07-28 | 2008-02-14 | Casio Comput Co Ltd | Image processing apparatus, image processing method, and image processing program |
| JP2008035152A (en) * | 2006-07-28 | 2008-02-14 | Casio Comput Co Ltd | Image processing apparatus, image processing method, and image processing program |
| JP2008311845A (en) * | 2007-06-13 | 2008-12-25 | Panasonic Corp | Optical space transmission equipment |
| US8019227B2 (en) | 2008-05-29 | 2011-09-13 | Casio Computer Co., Ltd. | Information transmitting system, information decoding apparatus, informing method and recording medium |
| JP2009290530A (en) * | 2008-05-29 | 2009-12-10 | Casio Comput Co Ltd | Information transmitting system, information decoding apparatus, method of annunciation and program |
| JP2013506218A (en) * | 2009-10-01 | 2013-02-21 | オラワークス・インコーポレイテッド | Method for performing visual search based on movement or posture of terminal, terminal and computer-readable recording medium |
| JP2013518275A (en) * | 2010-01-29 | 2013-05-20 | インテル・コーポレーション | Method for providing information on object not included in field of view of terminal device, terminal device, and computer-readable recording medium |
| JPWO2012023253A1 (en) * | 2010-08-20 | 2013-10-28 | パナソニック株式会社 | Reception display device, information transmission device, optical wireless communication system, reception display integrated circuit, information transmission integrated circuit, reception display program, information transmission program, and optical wireless communication method |
| CN102484678B (en) * | 2010-08-20 | 2017-03-01 | 松下电器(美国)知识产权公司 | Receiving and displaying device, information transmitting apparatus, light wireless communication system, reception display integrated circuit, information transmission integrated circuit, reception display program, information router and light wireless communication method |
| US9374159B2 (en) | 2010-08-20 | 2016-06-21 | Panasonic Intellectual Property Corporation Of America | Reception display apparatus, information transmission apparatus, optical wireless communication system, reception display integrated circuit, information transmission integrated circuit, reception display program, information transmission program, and optical wireless communication method |
| WO2012023253A1 (en) * | 2010-08-20 | 2012-02-23 | パナソニック株式会社 | Reception display device, information transmission device, optical wireless communication system, integrated circuit for reception display, integrated circuit for information transmission, reception display program, information transmission program, optical wireless communication method |
| CN102484678A (en) * | 2010-08-20 | 2012-05-30 | 松下电器产业株式会社 | Reception display device, information transmission device, optical wireless communication system, integrated circuit for reception display, integrated circuit for information transmission, reception display program, information transmission program and optical wireless communication method |
| JP2012048648A (en) * | 2010-08-30 | 2012-03-08 | Ntt Data Corp | Information service system and information service method |
| WO2012132334A1 (en) * | 2011-03-31 | 2012-10-04 | Sony Corporation | Display control device, display control method, and program |
| JP2012212343A (en) * | 2011-03-31 | 2012-11-01 | Sony Corp | Display control device, display control method, and program |
| US9373195B2 (en) | 2011-03-31 | 2016-06-21 | Sony Corporation | Display control device, display control method, and program |
| US10198867B2 (en) | 2011-03-31 | 2019-02-05 | Sony Corporation | Display control device, display control method, and program |
| US9621368B2 (en) | 2011-04-19 | 2017-04-11 | Samsung Electronics Co., Ltd. | Method for displaying status of power consumption and portable device thereof |
| JP2013080394A (en) * | 2011-10-04 | 2013-05-02 | Canon Inc | Display control device, control method of display control device, and program |
| WO2018158118A1 (en) * | 2017-03-02 | 2018-09-07 | Philips Lighting Holding B.V. | Selecting from content items associated with different light beacons |
| US11044013B2 (en) | 2017-03-02 | 2021-06-22 | Signify Holding B.V. | Selecting from content items associated with different light beacons |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2003323239A (en) | Information processing apparatus and information processing method, storage medium, and computer program | |
| JP3918813B2 (en) | Data communication system, data transmission device, and data reception device | |
| US8913885B2 (en) | Information provision system, server, terminal device, information provision method, display control method and recording medium | |
| US7502053B2 (en) | Information-processing device and information-processing system | |
| CN107526987B (en) | Apparatus, system and method using imaging assembly on mobile terminal | |
| Matsushita et al. | ID CAM: A smart camera for scene capturing and ID recognition | |
| JP2003256876A (en) | Mixed reality display device and method, storage medium, and computer program | |
| US20110105041A1 (en) | Remote control device, internet home applicance, remote control system, and remote control method | |
| JP4980633B2 (en) | Image display device, receiving device, image display control method, and data receiving method | |
| JP2013042221A (en) | Communication terminal, communication method, marker device, and communication system | |
| EP2034715A1 (en) | Overlay information presentation device and overlay information presentation system | |
| CN102375867A (en) | Apparatus and method for recognizing objects using filter information | |
| JP4303087B2 (en) | Data signal transmission method and reception method and apparatus, system, program, and recording medium | |
| JP4640483B2 (en) | Imaging apparatus and program | |
| JP4288904B2 (en) | Data communication system, data transmission apparatus and method, and data reception apparatus and method | |
| JP4110514B2 (en) | Data encoding apparatus and method, data decoding apparatus and method, data transmission apparatus, data reception apparatus, storage medium, and computer program | |
| EP3007098A1 (en) | Method, device and system for realizing visual identification | |
| CN108615260A (en) | The method and device that shows of augmented reality digital culture content is carried out under a kind of exception actual environment | |
| Kishino et al. | Realizing a visual marker using LEDs for wearable computing environment | |
| WO2004095316A1 (en) | Initiating data communication by capturing image | |
| JP2003281010A (en) | Portable terminal equipment | |
| CN111162840B (en) | Method and system for setting virtual objects around an optical communication device | |
| JP5921496B2 (en) | Terminal device, display control method, and program | |
| JP4046664B2 (en) | Information providing system, information providing method, information providing program, and recording medium for recording information providing program for portable information terminal | |
| JP2004029749A (en) | Information acquisition system, information acquisition method, and image photographing apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050428 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050428 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071203 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080610 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080806 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090811 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090924 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101012 |