Augmentons rapidement la réalité ..

Minority Report est sûrement bien plus près qu’on ne le pense … En effet, je vous en avez déjà parlé succintement sur ce billet mais il fait avouer que les choses vont très vite et qu’au fur et à mesure des jours, je découvre de plus en plus d’applications/utilisations/… de la réalité augmentée.

Mes premières découvertes, ce fut lors de l’E3 de cette année avec quelques nouveautés ..

Tout d’abord, j’ai envie de parler d’Heavy Rain, dernière création en date du studio frenchy Quantic Dream. Il faut savoir que QD, ils sont pas vraiment du genre à sortir un jeu toutes les semaines avec une seule et bonne licence à la con histoire de nous rechauffer encore et encore les mêmes histoires. Non, eux, ils font un jeu tous les 5-10 ans mais on va sûrement pas s’en plaindre vu la qualité qui en ressort (The Nomad Soul en 1999 qui est une bombe et qui est apparu comme une révolution à cette époque, Fahrenheit en 2005 qui a moins marché à cause de quelques petits problèmes de gameplay, un temps de jeu assez court et une fin plus ou moins « bâclée »).

Heavy Rain, donc, puisque c’est de ce jeu là dont je veux vous parler, sortira aux alentours de 2010. Mais, elle est où la réalité augmentée là hein ? Bon, d’accord, c’est sûrtout parce que c’est un bon coup de coeur que je vous en parle mais il y a une petite dose de R(ealité)A(ugmentée) dans HR.

Comme vous pourrez le voir dans la vidéo ci-dessous qui n’est autre que le trailer gameplayde l’E3 de cette année, l’interface du jeu est entièrement incrustée en 3D dans le jeu avec quelques phases de QTE (Quick Time Event) qui dynamisent un peu plus le gameplay. De plus, c’est très beau, et c’est aussi beaucoup de travail au niveau de la motion capture pour rendre encore plus d’émotions, etc .. Les visages sont plus que travaillés et c’est assez surprenant d’observer les différentes mimiques qui rendent tout plus vrai.

Bref, pour conclure la vidéo gameplay de l’E3 + un petit interview de David Cage (le boss de QD et un grand bonhomme du jeu vidéo !) :

Bref, mon coup de coeur de l’E3 (bien que je suis ce jeu depuis la première vidéo diffusée, qui, d’ailleurs, ne fait pas partie du jeu !).

Oui, mais c’est tout ?!

Héhé, non, la grande claque, le très gros boum c’est Microsoft pendant sa conférence à l’E3 avec la révélation du Projet Natal. En quoi consiste ce bouzin me diriez-vous ?

On pourrait résumer ça facilement : Un eye toy bien plus puissant. Nan, réellement, c’est, pour moi, bien plus que ça. Il faut savoir que cet outil permet avec une exactitude proche de la perfection (selon les différents tests faits par les journalistes JV) de recréer les mouvements faits par le joueur, et de les intégrer dans le jeu. C’est un peu ce que tous les joueurs attendent depuis le début du Jeu Vidéo. Enfin, je dois avouer que c’est un peu mon cas. Mais je vois en ce projet (qui normalement sera inclu dans un bundle X360 dans un avenir non communiqué) une marche en avant du jeu vidéo. On a bien pu le voir avec le projet de Monseigneur Peter Molyneux. Outre l’utilité plutôt nulle d’un tamagochi à forme humaine (bien qu’on puisse en espérer plus de Molyneux qui, pour rappel, a crée Populous, Theme Park, Syndicate, B&W et Fable … paye ton CV), c’est bien la partie IA qui devient de plus en plus impressionante. Le gamin, Milo, vous reconnait, il vous parle de choses et d’autres, réponds à vos paroles … Je trouve ça hallucinant, surtout en y ajoutant la dimension du « jebouge,etçabougeàl’écran ». L’effet est vraiment « réel ».
Trois vidéos donc, avec la présentation du Projet Natal, une petite interview de Peter Molyneux ainsi qu’une sorte de petite preview par des journalistes d’LCI :

Oui mais, c’est cool, on va pouvoir jouer avec un tamagotchi humain, on va bien avoir l’air con à gigoter dans notre salon, mais, y a pas quelque chose d’un peu plus utile ?

Héhé, bien sûr que si, je suis là aussi pour vous en parler. J’ai vu ça sur Presse-Citron, blog high-tech de môssieur Eric Dupin, où il nous expose un beau p’tit navigateur mobile.

Layar affiche sur l’écran de l’appareil des informations en incrustation, en fonction du paysage visé par le capteur photo du mobile. Une vue splittée avec carte est également au programme.

Autant le citer, histoire que ça aille plus vite et comme il l’a bien expliqué .. On peut rajouter que ça se passe sous Android et que cette application n’est utilisée que pour de l’achat d’immobilier pour l’instant. Bref, la vidéo du truc histoire de voir à quoi ça ressemble :

Image de prévisualisation YouTube

Mais ce ne sont pas vraiment les premier puisque Wikitude l’a fait pour une sorte de guide de voyage. Le principe est encore de « scanner » un paysage pour que le mobile, seul, trouve le monument/lieu/etc.. et donne les informations. Encore une petite vidéo pour illustrer :

Image de prévisualisation YouTube

C’est ce genre d’application de la réalité augmentée que je souhaite voir de plus en plus. Ce n’est que le début, et je pense qu’avec toutes nos belles têtes pensantes de notre Terre, on peut aller beaucoup plus loin. Mais ça, on le découvrira sûrement bien assez tôt !

Cya~

  • Twitter
  • Facebook
  • WordPress
  • MySpace
  • Netvibes Share
  • Blogger Post
  • Share/Bookmark

Si vous avez apprécié cet article, s'il vous plait, prenez le temps de laisser un commentaire ou de souscrire au flux afin de recevoir les futurs articles directement dans votre lecteur de flux.

Commentaires

Euh moi je vois pas ça comme « un tamagotchi » humain. T’imagines tu rentres des cours tu peux tapper la conversation avec une machine pendant que tu fais ton boulot ?

Bien sûr là c’est tout limité mais ils ont vraiment l’air d’en parler comme de possibilités infinies et honnêtement ça me donne des frissons. Un bot qui m’aide à faire mes maths en 2015 ? J’adopte.

Laisser un commentaire

(requis)

(requis)