Vous en pensez quoi ?

03 mai 2009

The 24 Hours of Innovation


In this trouble time, innovation is the key to move on.

Think a little bite about some of our every day gods : car, PC and internet.

Car buliding revolution take place just after 1929, with the T model bult wit the Ford model. It was a new way to built product, less expensif and so fare more cheap for every american. In a way, this is a great innovation pushed by these hard time.

PC is another great example. When you think a little bit, it's the Window system that opened up informatics for everybody. This took place at the end of the 70, just after the petrol crisis and the japonnese copying electronics. Bill Gates idea was to focus only on softwars and that made him a billionaire.

Last but not least, Internet was built by DARPA in the cold war to make the military system decentralized in order to be sure to have an operationnal systme even in case of an attack.

These few example show us that :
  • innovation is not only technology
  • innovation is a way to make things faster, cheaper, safer, smarter
  • innovation is a different way to answer a question

Innovation always needs some brilliants brains to explore some unusual way to solve probleme.
That's why it is important that people meet, exchange their idea. Indeed, innovation come often from people outside of the market, because these kind of people think different (crowdsourcing for Procter & Gamble is a good showcase with website like innocentive).

These last day, I was contacted to participate to 24 Hours of Innovation. I say immediatly yes because I want to share what I know and highlight some good innovation with everyvody interested in way to move on. Hope to meet interesting people and astonish product which could change the world. I'll be there and invit you to be part of.

29 septembre 2007

Normalisation des API

Les réseaux sociaux ont la cote et ce n'est qu'un début. En effet, au lieux que l'application soit le centre, c'est l'utilisateur désormais qui se place au centre du web. en fait, avec le web 2.0, le web sémantique, SOA on se dirige doucement mais surement vers un web plus flexible tout en étant plus consolider. Comme tout un chacun vous avez des compte un peu partout sur internet et comme tout un chacun, vous savez qu'il n'est pas toujours agréable de passer d'un service à l'autre. A terme, nous auront un ensemble de services que l'on pourra agencer selon nos propres désires. Ce qui arrive, c'est tout simplement un catalogue de service que l'on pourra agencer au sein d'un éditeur. Un peu comme le propose Facebook actuellement mais avec une différence de taille : l'ouverture. En effet, même si ce dernier fut le premier parmi les réseaux sociaux à ouvrir son API, il n'en reste pas moins que les applications faite pour Facebook ne sont pas compatible par défaut avec les autres resaux sociaux... La prochaine étape consiste tout simplement dans la normalisation des API. Cela à commencer à se faire grâce à OpenId qui permet de centraliser son identité. L'intérêt ? ne plus avoir à remplir un formulaire à chaque fois que l'on veut utiliser un nouveau service. Cela va beaucoup plus loin car si les données sont modifiées, elles ne le sont plus qu'une fois. Un utilisateur inscrit à 15 services n'aura dès lors plus à reporter ces modification 15 fois mais uniquement une seule fois.

27 août 2007

Be API

Pour ce qui ne savent pas ce que c'est qu'une API, voila la définition : Application Programming Interface.
Pour vulgariser un peu, il s'agit d'un clef informatique permettant à un développeur de manipuler des données, voir des fonctions d'un site/service tiers. En utilisant plusieurs API, on crée un mashup, une application composite.


Ces dernières années, les API se sont multipliés tout comme les mashup. Il suffit d'aller sur un site comme programmableweb pour s'en rendre compte.
Pourquoi un tel engouement ? Pour une seule raison, l'accès à l'information est tout simplement un moyen d'accélérer considérablement les nouveaux services. En effet, pourquoi creer tout un système d'album photo ou une base de photo alors que l'on peut les récuperer grâce à l'APi de Flickr. En sommes, pourquoi réinventer la roue alors qu'elle existe déjà. Désormais, les développeurs se focalisent sur la valeur ajoutée et non plus sur les briques logicielles de base.

Les éditeurs ont bien compris l'intérêt de la chose. L'API de Twitter est l'un des éléments central du succès de cette application de micro-blogging : pas moins de 200 mashups ont été crée. L'exemple le plus parlant est sans contexte Google qui a compris il y a 2 ans de cela tout le potentiel de la chose. Avec google map, ils ont laissé les développeurs du monde entiers utiliser leurs service pour faire des carte sur presque tout (de la cueillette de champignon, en passant par l'immobilier, la traque de celebrités, l'edition de sa propre map ect...). En fait Google a laissé les développeurs prendre le pouvoir pour 2 raisons. Premièrement, même si le site finale n'est pas géré par la firme de montain view, elle délivre toujours les cartes a proprement parlé (et est donc en position de force, par ailleurs les site tiers ayant beaucoup de trafic doivent payé pour avoir droit a un nombre de requête élevé). Deuxièmement, cela leur permet surtout de savoir ce quel site tiers fonctionne. Dès lors, il n'ont plus qu'a rajouter les fonctions les plus populaires. Ce n'est pas un hasard si désormais on peut éditer ses propres map dans Google.

Une bonne image pour illustrer le potentiel des mashups, c'est le DJ. Un DJ ne passe pas que les morceaux les un après les autres. Il les mix. C'est a dire qu'il trouve 2 morceaux qui ont intérêt a être joué ensemble. Si le mix est réussi, tout le monde est sur la piste de danse ! Alors bien sûr il faut que les 2 morceaux soient de bonne facture (que les données soient pertinentes), que cela soit bien présenter (que l'intégration des 2 services soient intelligemment pensé), que les gens soient en situations d'apprécier ce morceaux(avoir un coté communautaire en donnant à l'internaute la possibilité d'enrichir les donnée du mashup), sans compter un morceaux qui ne soit pas trop surchargé (mashup lisible, pas trop lourd a chargé sur le navigateur). Mais si tous les ingrédients sont réunis, on a assurément un tube. Pas étonnant dés lors que bien des DJ prennent du vieux pour faire du neuf...


Le dernier exemple sur lequel je voudrais venir est Facebook. Facebook est un site communautaire et comme tel, son objectif est d'avoir une communauté la plus grande possible afin de la monétiser auprès des annonceurs. Jusqu'à présent, les réseaux sociaux n'avaient donc pas intérêt à faire entrer le loup dans la bergerie en permettant a des développeurs externes de proposer des applications dont les profits ne tomberaient pas dans l'escarcelle de l'éditeur du réseau. Il y a moins d'un an, le créateur de Facebook, Mark Zuckerberg s'est demandé comment il pourrait se démarquer de ses riveaux (rien d'autre que des géants comme Myspace, Bebo, orkut et de nombreux autres). L'un de ses employés lui a dit en rigolant qu'il suffisait d'ouvrir les portes. Et c'est ce qu'il a fait. Résultat des courses : plus de 2500 applications en moins d'un an !
Il n'y a pas que le nombre d'applications qui a explosé, les utilisateurs ont suivi : + en .
Il est donc clair qu'il y a une corrélation forte entre une offre logicielle large (certains parlent de facebook comme l'OS web : réseaux + application) et l'adhésion des internautes. Ce n'est pas un hasard d'ailleurs si un site specialement dédié aux statistiques des applications Facebook a été mise en place : cela permet de mieux cerner vers quoi tendent les utilisateurs de la plateforme
Il est interessant de noter que tous les concurrents de Facebook n'ont désormais plus le choix, ils se doivent désormais d'ouvrir leur portes sans quoi ils seront "has been" sous peu.

Comme vous pourrez aisément le comprendre, les API sont l'avenir du web tout simplement car il amène un web fragmentaire, flexible, évoluable. La prochaine étape sera simplement une simplification des API afin quel ne soit pas seulement manipulable par les développeurs mais également par les internautes eux-même (Yahoo Pipe permet par exemple de faire un mashup assez facilement grâce à des graphiques.)

Alors si vous êtes porteur de projet, n'oubliez pas la création d'un API.

Libellés :

19 août 2007

Trouver la bonne information sur internet : ce que cela implique

Le sujet peut paraitre étonnant tant le réseau apporte une profusion d'information.

Le nombre de pages référencées est telle maintenant que Google n'annonce plus cette information sur sa page d'accueil. La quantité n'est plus un facteur prépondérant pour choisir son moteur de recherche. La pertinence est désormais ce qui importe. Mais là ou cela devient compliqué, c'est que derrière un mot clef, plusieurs résultats peuvent être attendu.

Prenons un exemple. Si l'on rechercher 'Intel' dans Google, on tombe sur
environ 195 000 000 résultats. Alors bien sur on tombe sur le site officiel de l'industriel. Mais peut être qu'un premier utilisateur voudra connaitre l'historique de la société, un deuxième voudra connaitre les dernière version des puces dual core et enfin un troisième voudra avoir des informations sur un driver. Beaucoup me diront qu'il suffit de mieux renseigner sa requête (pour rechercher un mp3 de madonna avec google, il suffit d'utiliser une ligne de code, encore faut il la connaitre). Certes, l'internaute lambda commence à savoir qu'il peut affiner sa recherche en précisant ce qu'il recherche.

Mais peu de personnes utilisent la pleine puissance offerte par la recherche avancée. Fainéantise ou simple méconnaissance ? Je pense que les utilisateurs lambda ne veulent tout simplement pas apprendre à se servir de l'outil. Ils préfèrent que l'outil comprenne leurs besoins. Cela est bien sur possible grace aux cookies et à un log. L'apparition de igoogle n'est pas un hasard. Une fois connecté (quelque soit le service de google, en passant de gmail à youtube) le moteur peut garder une trace de vos recherche et vous offrir dés lors des résultats en adéquations avec vos recherches effectuées précédemment.

Cela pose toutefois un problème de taille : la confidentialité de la vie privé. Big Brother n'est en effet plus dès lors une simple chimère et devient une réalité. D'aucun me diront que l'on n'est pas obligé de se loguer. Et c'est peut être cela le tour de force des gros acteurs du web. Personne nous force à nous inscrire gratuitement pour un service personnalisée. Pourquoi aurions nous peur d'ailleurs puisque le leitmotiv de Google est "Don't do evil". En surface, il apparait donc qu'il n'y ait que des avantages à informer notre moteur recherche de tous nos faits et gestes.

Mais il suffit qu'il y ait des fuites comme cela a été le cas chez AOL que pour que tout un chacun puissent vous suivre à la trace, voir utiliser ces données pour les utiliser à mauvais escient. Pour autant, il ne faut pas devenir paranoïaque. Les principaux acteurs du marché de la recherche online ont d'ailleurs réduit le laps de temps de l'archivage des recherches des internautes.

Toujours est il que internet, et surtout les moteurs de recherchent en savent désormais plus que quiconque sur les véritables centres d'intérêts de tout un chacun. Fort de toutes ces données, on peut dés lors supposer que tous les collecteurs de datas comportementales seront les plus à même dans les prochaines années de conseillé les industriels de tout poil. En effet, le nerf de la guerre n'est il pas de connaitre son client pour lui délivrer un produit qui corresponde à son désir ?

Google ne peut évidemment pas se permettre de livrer ce type d'informations aux industriels. Cela remettrait à mal la confiance des utilisateurs. Mais certaines sociétés tel que Forrester Research se sont déjà spécialisé dans ce type d'activité. Par ailleurs, même si Google ne livre pas des informations a forte granularité, on peut déjà avoir une vue des recherches les plus demandées avec Google Trend.

Suite à cet état des lieux, on peut en conclure que l'évolution de la recherche sur internet ne se pose pas tant en terme technique qu'au niveau éthique et déontologique. La meilleur pratique se situera certainement entre la récupérations d'information (logué ou pas), la recommandation initié par Amazone et des techniques d'intégration qui rendront le web sémantique plus abouti que ce qui se fait actuellement (comme les microformats par exemple).




Libellés :

05 novembre 2006

Web 2.0 : centré sur l’utilisateur, vraiment ?

Ma petite contribution sur l'article de Internet Actu sur un sujet on ne peut plus d'actualité.

31 octobre 2006

Mes commentaires

Un debat tres interessant sur le html et son evolution.
J'y ai mis ma petite contribution

24 octobre 2006

capoeira

Quelle surprise j'ai eu quand j'ai tapé capeoira dans youtube.
La premiere video presentée venait de mon groupe de capoeira !