Déjà 7 ou 8 ans que les premiers articles ont été écrits sur le design des applications web en fonction des capteurs disponibles. L’idée : utiliser tous les services dérivés des capteurs disponibles pour offrir des sites web réactifs.
Où en sommes-nous ?
Les services plutôt bien utilisés aujourd’hui :
- la localisation ;
- le gyroscope ;
- l’orientation du matériel ;
- la capture image et vidéo (mais on peut mieux faire niveau partage).
Les services encore très peu utilisés :
- le multi-tactile (encore assez peu utilisé en dehors du pinch) ;
- le capteur de lumière ;
- le capteur de proximité ;
- le capteur audio ;
- la gestion des mouvements de l’appareil ;
- la détection d’autre matériels à proximité (via Bluetooth par exemple).
Je ne sais pas où en est la réflexion des organismes normalisateurs sur l’ensemble de ces points (notamment si quelque chose avance sur la détection de pairs). Il faut commencer à réfléchir à l’utilisation de ces informations, il y a des opportunités.