Une fois n’est pas coutume, nous allons essayer de prendre un peu de hauteur pour parler d’un problème très général lié au monde de l’entreprise. : l’obsolescence programmée. On en entend parler tous les jours et ce dès le petit déjeuner, mais cela signifie-t-il pour autant que c’est une réalité ?
L’obsolescence programmée, loin d’être un mythe ?
Tout a commencé par une discussion Facebook, sur laquelle je suis tombé après avoir terminé la rédaction d’un devis lié à une étude de positionnement. Un de mes contacts venait de partager un article de l’excellent site d’information Contrepoints, intitulé : « Comment j’ai déprogrammé l’obsolescence« .
Mon « ami Facebook » recommandait cette lecture à « ceux qui croient au mythe de l’obsolescence programmée ».
De fait, l’article est très intéressant car il rappelle certaines évidences qui ont tendance à être oubliées, tout particulièrement lorsque politiciens et journalistes se laissent emporter dans une diatribe anticapitaliste. J’ai particulièrement retenu celle-ci, qui intervient en fin d’article :
Vouloir combattre l’obsolescence programmée par voie législative, c’est contraindre les industriels à monter en gamme et donc en prix de vente.
Perception et réalité
Ceux qui me lisent régulièrement savent que j’insiste souvent sur un point : en marketing – comme en politique et dans bien d’autres domaines, d’ailleurs -, c’est la perception de quelque chose et non sa réalité intrinsèque qui importe.
Or il se trouve, comme je vous le rappelais en introduction, que l’obsolescence programmée fait partie de ces concepts que l’on nous sert matin, midi, et soir. Même pendant l’été. Il n’est donc pas surprenant de voir que son existence ne fait plus aucun doute pour beaucoup de nos concitoyens.
Un internaute est donc venu démontrer par a+b que l’obsolescence programmée existe. La preuve : il l’a rencontrée. D’ailleurs les exemples ne manquent pas selon lui.
En particulier :
On retiendra toujours que la Xbox 360 tombait largement plus de fois plus en panne que la Xbox 1 ou même que les consoles de plus vieilles générations.
Pas de chance, l’argument ne tient pas.
Les amateurs de jeux vidéo le savent bien.
Les premières Xbox 360 qui ont été mises sur le marché se sont en effet montrées bien peu fiables, le plus souvent pour un problème de surchauffe. Mais, au fil des mois et des séries produites, la fiabilité s’est peu à peu améliorée. Elle a ensuite franchis un cap avec la sortie du nouveau modèle de la console.
Idem du côté de la concurrente PlayStation 3 : les premiers modèles ont été nombreux à rendre l’âme, ce coup-ci en raison d’une fragilité du bloc optique. Là encore, la fiabilité s’est améliorée et les nouveaux modèles ne posent plus de problème notable.
Mais qu’en était-il du côté des consoles plus anciennes ? Là encore, les propos de cet internaute ne tiennent pas.
Si la Xbox 1 se montrait robuste, il ne faut pas oublier qu’elle était non seulement vendue à un prix astronomique lors de sa mise sur le marché mais qu’il s’agissait aussi de la première incursion de Microsoft dans le monde des consoles.
Regardons du côté des Nintendo, Sega et autres Sony. La PlayStation 2 ? Le cimetière des consoles est rempli de PS2 dont le bloc optique a lâché. Là encore, ce sont les premiers modèles qui ont, de loin, connu le taux de panne le plus élevé. La Dreamcast ? Même combat, ou presque. Toujours le bloc optique.
Et si l’on remonte plus encore dans le temps, que constate-t-on ? Tout simplement que les consoles se sont montrées fragiles dès lors qu’elles ont adopté les CD et autres DVD, autrement dit qu’on les a dotées d’un bloc optique. Le Mega CD est passé par là : la première génération a rencontré pas mal de soucis, puis a été remplacée par un modèle moins « beau », certes, mais moins cher et plus fiable. Idem côté PC-Engine de NEC : les premières Duo ont souffert en masse de problèmes de bloc optique, puis les versions R et RX sont apparues, bien plus sûres.
Quoi de plus logique lorsque l’on connaît un tant soit peu les processus de fabrication ? Le terme « maturité » suffit à résumer toute cette problématique.
Cela contredit un tantinet l’idée d’un méchant industriel qui prend un malin plaisir à fabriquer des produits qui vont tomber en panne le lendemain de la fin de la garantie.
L’obsolescence des disques durs en question
Qu’à cela ne tienne : des exemples, il en a à la pelle. Il enchaîne donc sur les disques durs, pour lesquels le constat semble imparable :
Aujourd’hui un disque dur tombe beaucoup plus souvent en panne.
Malheureusement, rien ne semble confirmer cet état de fait. Bien entendu, lorsque la capacité des disques durs augmente, le taux de panne augmente. Le temps pour l’industriel de maîtriser sa production.
L’explication tient toujours en un mot : maturité.
De fait, certaines marques progressent, d’autres régressent.
Les faits sont têtus. Mais cela n’empêche pas l’internaute de conclure :
Bref, je pense que l’obsolescence c’est loin d’être un mythe.
Perception, vous disais-je.
Déconstruisons le concept d’obsolescence programmée
Je n’ai donc pas pu résister au plaisir de saisir mon clavier – un « entrée de gamme » qui a bien 5 ou 6 ans et fonctionne toujours à la perfection – pour écrire ces quelques mots :
Mais c’est un concept « foireux » dans le sens où il n’y a pas de complot judéo-maçonnique qui vise à dire « ahahah à telle date ça va tomber en panne et l’abruti de consommateur va devoir repasser à la caisse ».
En tout cas pas plus que dans le cas du bousin qui sert à éplucher les patates, qui part beaucoup plus souvent à la poubelle lorsqu’il est de la même couleur que les patates que lorsqu’il est rouge vif. C’est simplement une question de positionnement marketing, de stratégie commerciale et – c’est évident – de cycle de vente.L’article rappelle un point central : sans cette monstrueuse « obsolescence programmée », il faudrait peut-être encore économiser pendant des années pour s’acheter un téléviseur. La concurrence tire les prix vers le bas d’une manière générale. Alors évidemment il reste toujours possible de s’acheter un téléviseur à 2 ou 3000 euros, mais on peut en trouver à 300 qui tiennent la route. Bien entendu, celui à 300 va (statistiquement) clamser beaucoup plus rapidement que celui qui vaut 10 fois plus. L’autre possibilité serait de continuer de fabriquer des Amstrad CPC +++. Ils seraient d’une fiabilité irréprochable.
Les marques qui ont persisté à faire des produits « moyen ou haut de gamme » en les vendant cher sans pour autant affirmer un positionnement (au contraire par exemple d’Apple qui vend ses produits bien plus cher que leur « valeur réelle ») ont coulé.
Le résultat c’est que la capacité des disques durs a augmenté à une vitesse bien plus grande que ce que l’on pouvait penser dans les années 80 ou même 90 (attention pour ce secteur en particulier à ne pas oublier les inondations qui ont fortement marqué le marché : il faut toujours prendre du recul pour comprendre).
L’obsolescence existe, évidemment. Elle n’est simplement pas « programmée », stricto sensu.
Mais après tout peu importe, vous répondront certains : qu’elle soit programmée ou non, c’est à cause de l’obsolescence que l’on vit dans un monde d’opulence.
Bref, de surconsommation.
Voilà le vrai coupable à leurs yeux.
Crédit photo : SpoonMonkey