Digital native et vieuconnisme (ils ne sont pas ceux qu'on croit être)

Publié le 10 Juillet 2008

Vieuconnisme comme "vieux con".

Digital native comme "être né a une époque ou l'on est entouré d'ordinateur, de pda, de telephone portable, ...", être connecté partout, tout le temps, ...

Les "vieux cons" sont plutot du genre a se dire qu'on n'a rien inventé depuis l'apparition de la lampe a vide et du transistor, a se dire que c'etait mieux avant, et que chaque nouvelle techno sont forcement inutiles (parfois indispensables, mais inutiles), des trucs de djeunz, et qu'ils ne voient pas de raison de changer de version de CP/M qui marche toujours aussi bien qu'avant ;)

Je me suis autoproclamé alternativement être l'un, puis l'autre.
Je ne suis au final ni de l'un, ni de l'autre.

Surtout que les "Digital Native" ont de plus en plus tendance au vieuconnisme.
C'est un constat tout personnel assez recent.

Tout d'abord je ne suis pas un "Digital Native" au sens conventionnel du terme.
Je suis né un 1978, pas de PC multimedia a la maison, pas d'internet, pas de téléphone portable, ... et j'en passe.
Pourtant, j'ai appris à taper au clavier (et recopier des programmes) avant de savoir écrire.
Mon premier ordinateur a été soudé par mon père, ensuite est venu l'oric atmos 48k, l'atari, etc ...
Disons que je suis "de la generation atari" ;)

Pas un vieux con non plus, ce n'est pas compatible avec la tendance "early adopter".
Le fait d'avoir fait partie des early adopter de Linux a rendu les choses un peu confuse, puisqu'a ce moment là Linux etait surtout percu comme un truc de vieux con. (Terminal, Unix, ...)
Je me retrouvai donc avec un status de "Early Vieux Con" ;)


Fort de mon status de "Early Digital-Vieux-Con ((pré)Atari Native).Generation", je suis en mesure de constater que les "Digital Native" commencent à avoir une serieuse tendance aux vieuconnisme et à refuser les nouvelles technologies ... simplement parce que c'est nouveau, donc pas comme avant, donc pas bien.

On le voit en particulier pour les OS et pour le Web.
Windows XP est l'os qui a eu la plus longue durée de vie chez Microsoft (au niveau grand public, autrement on pourrai parler de NT4 qui est toujours en service ;) )
Le Web est toujours du bon vieux HTML est ses mutiple évolutions, declinaisons, versions, mais le modèle reste le même.
Le Web2 n'est qu'un vague Web1.2 ... l'usage a changé mais la technologie reste la même.

Au final... quand une technologie change pour de vrai... Les "digital native" sont incapable d'en changer, car beaucoup n'ont connu aucun veritable changement technologique.

Parmis les cas les plus flagrant, on trouve un rejet systematique de :
- DirectX 10
- Windows Vista
- Secondlife, lively, et autres univers virtuel 3D (hors jeux)
- .NET

Au même titre qu'on trouvai un rejet systematique de Linux a une certaine période, mais a ce moment la on ne pouvai pas vraiment parler de "Digital Native", et les "Vieux cons" étaient très content de Linux. Le rejet systematique venait plutot des entreprises et leurs decideurs  "Corporate Native" (Digital gros con ?)

Il y a eu très clairement à une période récente un "plateau" sur les révolutions technologique.
Les Web est le même depuis de nombreuses années (simplement des évolutions, mais aucune révolution).
Le materiel informatique a très peu changé (augmentation de performance, vitesse, capacité, mais pas vraiment de gros changement). Jusqu'a l'apparition des multicore.
Le developpement logiciel, qui s'adapte forcement au materiel, a déjà changé et changera encore beaucoup.
On peut citer l'apparition des plateformes du type Java et .NET, qui sont vraiment un changement. Et la necessité de passer au massivement multithread. La route est encore très longue a ce niveau la.
Les "webservices" commencent aussi a sortir de leurs trous. (Amazon S3, EC2, les applis google, ...).

Mais il y a vraiment une grosse latence en ce moment entre l'apparition de la technologie, son developpement et son adoption.

La ou le temps de latence etait avant tout lié aux "Corporate Native" (et donc un frein important au niveau du developpement d'une techno), la latence glisse doucement mais surement vers un probleme d'adoption de la technologie, et c'est tout particulierement lié aux "Digital Native" qui n'ont recemment connu aucune réelle revolution technologique et qui sont aujourd'hui incapable de changer.

Il y a pourtant, réellement, des revolutions technologiques en ce moment.

Les univers virtuels bien sur, ca on est tous au courant etant donné le buzz que cela a generé, mais cela a surtout entrainé un rejet systematique plutot qu'une adoption massive. On peut parler d'adoption massive dans le cas des blogs, et autres "social networks" par exemple, mais pas des mondes virtuels.

Le developpement massivement multithread passe par le developpement de nouveaux langages, nouveaux compilateurs,  nouveaux framework (Java et .NET en tête, mais .NET va poutrer Java car .NET a l'avantage d'être multi-langage alors que Java... c'est du Java).

Beaucoup de changement niveau GPU et en particulier tout ce qui touche aux "GPGPU", si le materiel a été massivement adopté (faute de choix, entre autre), ce n'est pas du tout le cas niveau logiciel. (en particulier a cause du rejet de DirectX10 et Vista, et de l'absence de veritables outils liés au GPGPU en dehors DirectX10 et CUDA (et encore, ca sera plutot DirectX 11)).

Le 64 bits j'en parle même pas, la c'est clairement la faute a Microsoft qui est une veritable catastrophe a ce niveau la. Et aux developpeur de driver incapable de faire du dev 64bits (Mais la faute est surement lié a Microsoft et a sa gestion foireuse du passage au 64bits, car il n'y a pas vraiment de problème a ce niveau la sur Linux et MacOS X)

Pour ce qui est des webservices, je sais pas trop. Ce que je vois en particulier, c'est qu'il y a un bel avenir du coté des projets "zero-server". Autrement dit, utiliser des webservices tels que Amazon EC2 et S3 avec du "tout a la demande" et "je ne paye que ce que j'utilise reellement". Avec le cout de l'energie qui augmente en flèche on devrait voir ce genre de projet assez rapidement je pense. (Effectivement, pourquoi payer et maintenir une batterie de serveur en ligne qui glande 99% du temps et qui ne tourne a fond que de 20h a 21h ? Ce genre de modele coutera de plus en plus cher). Il me semble que IBM et Sun ont été les premiers à miser sur des trucs du genre "SOA" et le tout "On-demand", et pourtant il n'y a guère que Amazon a reellement proposer ce genre de service.

IBM et Sun, provider de serveurs a la demande (à l'heure ou à la minute) ? Ca a vraiment un sens, et pourtant... je ne trouve aucun service de ce genre chez eux. (Et google ?!)

J'aurai tendance a vouloir faire mon "early-early-adopter" et a adapter des aujourd'hui le modèle "zero-server". (en plus c'est ecolo !) Mais j'ai fini par apprendre, au fil de mes early-adoption, que ce n'etait pas la peine de s'enflammer ... le temps de latence entre apparition et adoption s'etire dramatiquement et j'ai du mal a voir ce qui pourrait le raccourcir (bien au contraire). Les utilisateurs ont deja du mal a s'adapter a une techno de 5ans d'age... alors s'adapter a un truc qui commence "a peine" a avoir un sens cette année ... Le prix du petrole et de l'energie aidant, cela pourrai veritablement forcer une adoption de ce modèle, des que ca touche au portefeuille tout ca plus vite.
Mais pourtant Second Life et les univers virtuels ont clairement un avantage ecologique et economique, et pourtant l'adoption est loin d'etre faite.

Autant je suis capable d'imaginer ce qui a un interet aujourd'hui et qui sera adopté dans les prochaines années, autant j'ai du mal à prévoir le comportement et l'adoption d'une technologie pour... l'année prochaine.

Les gens sont incroyablement lent... ils n'apprennent jamais, et repetent les mêmes erreurs, encore, et encore et encore, ... et encore !

Rédigé par kerunix Flan

Publié dans #Secondlife

Repost0
Pour être informé des derniers articles, inscrivez vous :