Le syndrome des caisses automatiques

Arrivée depuis plus de 15 ans en France, les caisses automatiques dans les supermarchés ont fait grand bruit à leur installation, faisant beaucoup de réticents à leurs débuts, autant au niveau du consommateur qui déplorait la robotisation et la déshumanisation que du côté des syndicats qui pointaient du doigt la perte d’emploi et le risque de disparition du métier de caissière.

Ah, délicat sujet que celui des caisses automatiques, installées depuis 2004 en France et toujours aussi controversées, permettant soit disant de gagner du temps au passage en caisse en scannant soi-même les produits, elles ont été décriées par peur de la disparition des caisses classiques, et donc des caissières, donc synonymes de pertes d’emploi.

Cependant je pense pour ma part que le problème est ailleurs, je trouve ça quand même formidable que la technologie nous permette de supprimer les tâches répétitives, à faible valeur ajoutée, usante et fatigante pour l’être humain, il vaut mieux user une machine qu’un humain non ? Les caisses automatiques ne sont seulement que la partie émergée de l’iceberg et sont symptomatiques du fonctionnement de notre société (enfin surtout du système économique) car visible par le grand public, mais le problème ne date pas d’hier.

Si on part dans les extrêmes, prenons l’exemple de la tondeuse à gazon, avant son invention il fallait beaucoup plus de jardinier pour tondre une pelouse, maintenant une seule personne suffit, du coup il y a eu de la perte d’emploi, comment faire alors ? On supprime toute les tondeuses à gazon et on recréé quatre fois plus d’emploi de jardinier ? C’est bien évidemment totalement absurde, créer de l’emploi pour créer de l’emploi est inutile.

L’exemple de l’industrie

Un autre exemple que le grand public ne voit pas, dans l’industrie, on nous parle sans cesse de « l’industrie 4.0 » censé être une révolution en terme de communication entre les outils et postes de travail en utilisant les dernières technologies de l’internet des objets, le souci étant qu’il faudrait déjà qu’on ai terminé le passage à l’industrie 3.0 !

Il y a 30 ans arrivaient les premiers ordinateur en entreprise, avant on faisait tout à la main, on écrivait des rapports à la main, on dessinait à la main, on collait des photos sur du papier. L’arrivée de l’ordinateur devait être une petite révolution, si seulement l’outil informatique était utilisé dans toute ses capacités… Et il est là le souci, maintenant on fait pareil qu’avant, mais en tapant sur les touches d’un clavier, alors certes, on gagne certainement du temps, mais l’ordinateur est capable de dix fois plus de choses ! Je suis encore sidéré de voir le nombre de chiffres, de copier coller et de calcul que l’on a à manipuler en entreprise, avec tous les erreurs associées, car l’humain n’est pas le plus adapté à manipuler des chiffres à la chaine, par contre l’ordinateur est parfaitement adapté pour ça, mais on ne l’utilise quasiment pas..

Pourquoi ? Parce que, comme très souvent, l’ordinateur a été un outil imposé, on a formé à la va-vite les gens en leur expliquant comment ouvrir un tableur ou un document de traitement de texte et à naviguer sur Internet et c’est tout, les gens se sont débrouillés avec ça et n’ont rien appris de plus depuis (exceptés ceux qui sortent de formation informatique évidemment).

Du coup, il y a un gros décalage entre les politiques d’innovation des entreprises, qui sert plus de façade pour monter ce qu’on pourra éventuellement faire dans le futur grâce à la technologie (la réalité augmentée et virtuelle est très à la mode !) et le travail réel au quotidien, où le système D est roi, faute de solutions informatiques adaptées, l’ordinateur est uniquement un support de prise de note pour des données que l’on va ensuite réorganiser et traiter à la main.

Tout automatiser !

Le progrès technologique doit aider l’humain, avec tous les outils que l’on a actuellement on est en mesure d’automatiser la plupart des tâches à faible valeur ajoutée, répétitives ou redondantes, alors faisons-le ! Cela permettra ensuite d’adapter les postes et les emplois vers des tâches à plus forte valeur ajoutée, stimulante pour le cerveau et qui nécessite de la réflexion humaine pour être achevées avec un bon niveau de qualité, cela est d’autant plus enrichissant et valorisant pour l’employé, qui se sentira mieux dans son travail, il faut voir cela comme un cercle vertueux.

Le principale problème réside en la frilosité des entreprises pour investir dans cette automatisation. En effet, cela coute de l’argent, il faut prendre le temps de définir ce qui devra être automatiser, analyser les données entrantes et sortantes, développer et mettre en place des solutions logicielles adaptées et former les gens à l’utilisation des nouveaux outils. Le problème est toujours là, le coût, on nous demande toujours combien ça coute ? Tout ce qui touche à l’optimisation, l’automatisation, la mise en place d’un système qualité, tout gestionnaire vous dira que ça coute trop cher, une vision bien négative, parce que c’est justement l’inverse, ça rapporte bien plus que ça ne coute, mais de façon indirecte.

Un exemple très simple, le système qualité ! Mettre en place un système qualité dans une entreprise permet de s’assurer de s’approcher du meilleur taux de conformité possible, en gros on s’assure de ne produire que des pièces bonnes. Mais cela a un coût, il faut des postes dédiés à la qualité, analyser les process de fabrication et mettre en place des outils permettant de s’assurer de la fiabilité du système de production, le tout pour satisfaire les clients. D’un point de vue comptabilité, cela coute de l’argent et ne rapporte rien, la satisfaction client ne donne pas plus d’argent, maintenant voyons ce qui peux se passer si on supprime le système qualité.

Pas de système qualité = pas d’indicateur sur la fiabilité des process, si un jour, on a une dérive sur un process qui commence à produire des pièces fausses, et que l’on n’a pas détecté, on en arrive à livrer des pièces non conformes et parfois même sans le savoir. Et si on est sur un process de production en grande série, c’est encore pire, vu que l’on ne peut pas contrôler toute les pièces qui sortent. Et là tout peut rapidement tourner à la catastrophe, client insatisfait, demande de remplacement de toutes les pièces défectueuses (à la charge de l’entreprise) parfois déjà en cours d’utilisation (pour une voiture cela peut amener à faire rapatrier des milliers de véhicule déjà sur la route !), bref, au final, cela peut couter tellement cher à une entreprise, allant jusqu’au point de la couler définitivement (cela s’est déjà vu mainte fois même pour de très grosses entreprises).

C’est exactement le même principe pour l’automatisation, cela devrait même faire partie intégrante du système qualité au vu de tout les bénéfices que cela peut apporter.

Arrêter de taxer (que) l’humain

Évidemment quand on parle uniquement de coûts l’automatisation est une aubaine pour les entreprises, beaucoup vont se dire « tiens si j’investis dans un robot cela ne me coûte quasiment rien par rapport à un salarié » et vont donc chercher à remplacer les humains par des robots. Un salarié coute cher, en plus de son salaire il faut payer toutes les cotisations sociales associées (retraite, sécurité sociale, chômage, etc.) alors qu’un robot ne cotise pas. Et pourquoi pas ?

Eh bien oui, si on revoyait le modèle de perception des cotisations sociale et que l’on taxait les entreprises non pas sur leurs masse salariale mais sur la valeur ajoutée qu’elle produit, converti en temps de travail humain ? Non pas une taxe robot comme déjà évoqué par certains politiciens, mais que les robots soient autant taxés que les humains, on s’assurerait ainsi de la pérennité de notre système social (les robots cotisent pour les humains !) toute en évitant aux entreprises de remplacer leur poste de travail par soucis de coût. Évidemment toute la complexité de la tâche est de déterminé le niveau de taxe en fonction du niveau de valeur ajoutée d’une tâche, il faudrait analyser toutes les tâches et process pour définir des charges adéquate, mais cela serait déjà une bonne avancée vers un monde en symbiose entre le travail humain et automatisé.

Reste la sacro-sainte question de l’emploi, beaucoup d’entreprise ont tendances à supprimer des postes pour les remplacer par des robots, mais cela n’est pas la bonne solution car souvent synonyme de pertes de compétences (on s’en rend malheureusement compte des années après), au contraire il faut faire muter les postes et faire évoluer les salariés vers des tâches dont le cerveau humain est essentiel, car il y en aura toujours, et si le robot tombe en panne un jour, on saura toujours comment faire le travail à la main car on aura gardé un certain savoir-faire.

Une entreprise doit savoir capitaliser ces compétences, souvent détenues par les salariés, et toujours garder son savoir faire, il faut apprendre à intégrer l’automatisation et non pas penser à la substituer à d’autres postes , elle doit être complémentaire et apporter de l’amélioration au travail en lui même, bref, il ne faut pas se dire combien ça coûte mais combien ça rapporte, autant en terme d’argent, de qualité et de bien être au travail, on a tout à y gagner.

Les études scientifiques : l’importance de la méthodologie

On entend beaucoup parler d’études, d’essais cliniques sur des traitements potentiels contre le coronavirus, notamment avec la polémique sur la chloroquine et ses dérivés, les médias s’emparent alors des résultats et, comme d’habitude, ne prennent pas vraiment la peine d’expliquer le protocole (ou sont passé les journalistes scientifiques ?). Je pense qu’il est nécessaire de démystifier cette méthode et d’expliquer comment et pourquoi elle fonctionne.

Je place volontairement cet article dans la catégorie culture car je pense qu’aujourd’hui cela doit faire partie intégrante de la culture générale.

Pourquoi des études ?

Mais oui c’est vrai ça, pourquoi fait-on des études ? Eh bien contrairement à la physique et aux mathématiques, la médecine n’est pas une science exacte, chaque individu étant génétiquement différent il n’y a pas de remède miracle qui fonctionne pour tout le monde. On est alors obligé d’utiliser des outils statistiques pour vérifier l’efficacité d’une molécule.

C’est d’ailleurs la même chose pour toutes les sciences appliquées, par exemple, en mécanique (physique appliquée) on défini par calcul les dimensions d’une pièce, jusque là tout va bien c’est des maths, mais dès que l’on passe à la phase de fabrication des pièces on sait que l’on ne pourra jamais produire une pièce avec ces dimensions exactes, il y aura toujours des variations dues à tout un tas de paramètres physiques (matières, température, process de fabrication, moyen de mesure, etc.) qu’il faudra prendre en compte dès la conception de la pièce en mettant des tolérances sur les dimensions, que l’on viendra ensuite étudier statistiquement en faisant plusieurs mesures sur une population de pièce.

Le facteur humain en plus !

Concernant la médecine, il y a d’autres paramètres qui entrent en jeu. En effet, lorsque l’on veut démontrer l’efficacité d’un traitement/médicament sur une maladie on peut se dire qu’il suffit de donner le traitement à une population de malade, de mesurer les résultats obtenus au bout d’un certain temps et de conclure sur l’efficacité du médicament, comme on le ferait avec une pièce mécanique, sauf que… ça ne marche pas vraiment…

Magnifique population de 40 individus lambdas

Et ce à cause de plusieurs facteurs qui entrent en jeux, que l’on appelle des « facteurs de confusions », c’est à dire qui peuvent se confondre avec les effets du traitement. Par exemple, l’évolution naturelle de la maladie, qui peut se résorber ou s’aggraver avec le temps peut se confondre avec l’efficacité / l’inefficacité d’un traitement.

Du coup comment on fait ???

Ben oui comment on fait si on ne peut pas déterminer si les résultats sont dû à un facteur de confusion ou au traitement en lui même ? Eh bien on fait attention à la méthode, et on fait super attention même !

On va prendre un exemple concret, comme je ne suis pas médecin (« I’m not a doctor » comme disait un fameux président américain dont je tairai le nom pour ne pas nuire à la crédibilité de ma démonstration) imaginons une maladie que l’on va appeler la Gronesite. La Gronesite est une maladie qui fait grossir le nez des malades (+1 pour l’imagination !), sur toute les personnes infectées, 20% sont des enfants, 30% sont des femmes et 50% sont des hommes. On cherche a évaluer l’efficacité d’un nouveau médicament que l’on appellera le Raptissnez, en sachant que l’évolution naturelle de la maladie fait qu’elle disparait en quelques jours pour 80% des cas chez les enfants, 60% des cas chez les femmes et 40% des cas chez les hommes.

Du coup, pour notre étude, on va chercher à tester notre traitement sur une population représentative, parce que si on teste la solution uniquement en prenant des enfants, sachant que la maladie disparait naturellement pour 80% d’entre eux, on ne pourra pas vraiment statuer de l’efficacité sur les autres tranches de population.

Population représentative composée de 50% d’hommes (marron), 30% de femmes (bleu) et 20% d’enfants (vert)

Une fois que l’on a ciblé nos cobayes, il va falloir mettre en place un groupe contrôle, c’est à dire un groupe qui ne recevra pas le traitement et qui servira à la fin de l’étude de base de comparaison avec le groupe qui lui aura reçu le traitement afin de statuer de l’efficacité de ce dernier (s’il y a autant d’individus guéris dans le groupe contrôle que dans le groupe traité, c’est que le traitement est inefficace).

La randomisation

Bon, je ne sais pas pourquoi on n’a jamais traduit ce mot, « randomiser » vient de « random » en anglais qui signifie « aléatoire ». Le but est de répartir de façon totalement aléatoire les individus dans les deux groupes (par tirage au sort). Si on ne le fait pas ? On biaise l’étude par les facteurs de confusion ! L’inverse de l’aléatoire étant de sélectionner qui on met où, on pourrait être tenter de mettre les enfants et les femmes dans le groupe test et les hommes dans le groupe contrôle, vu qu’ils ont un taux de guérison moindre, on est quasiment sûr que l’étude sera concluante, mais du coup ça ne sert plus à rien de faire une étude si vous connaissez déjà le résultat ! (Sauf si vous bossez pour Mc-Do et devez prouvez que la nourriture qu’ils vendent est saine, ahahah)

C’est moche, vraiment très moche, ça pue l’étude foireuse à plein nez

Cela parait flagrant mais bon nombres d’études obscures prennent bien soin de ne pas détailler les répartitions des groupes pour ne pas que l’on ne se rende compte qu’elles sont totalement foireuses, le problème est que si on ne creuse pas la méthodologie de l’étude on ne sait pas dans quelles conditions elle a été réalisée et on gobe tout cru les résultats…

Bref, retournons à nos gros nez et appliquons une randomisation digne de ce nom !

Aaaaaaah, voilà qui est beaucoup mieux ! 😀

Bon là vous allez me dire « Mais pourquoi tu n’as pas réparti équitablement le nombre d’hommes, de femmes et d’enfants ? » Certes, j’aurais pu car mon exemple est extrêmement simplifié, je n’ai que trois catégories : femmes, hommes et enfants. Sauf que dans la réalité il y a beaucoup plus de facteurs qui peuvent intervenir, comme l’age, le poids, les antécédents médicaux, etc.. Le seul moyen pour ces facteurs d’être pris en compte dans l’étude est une répartition aléatoire, comme cela le groupe contrôle et le groupe testé subiront les mêmes influences de ces facteurs.

Maintenant qu’on a notre groupe contrôle tout beau tout propre, il va falloir décider ce qu’on va leur donner.

L’importance du Placebo

Comme le groupe contrôle doit subir le test dans les mêmes conditions que le groupe testé, on va lui donner un traitement, mais comme il s’agit du groupe contrôle, ce sera un traitement sans effet actif à l’intérieur, un traitement placebo.

Ce placebo va être très important car il s’agit d’un facteur de confusion significatif. En effet, le fait de donner un médicament sans effet actif à l’intérieur va… avoir de l’effet ! (évidemment tout dépend de la gravité de la maladie)

On connait encore très mal les raisons de l’efficacité des placebos, mais il est certain qu’il y a une bonne influence du psychologique sur le physique, en effet le placebo fonctionnera beaucoup mieux s’il est administré dans les mêmes conditions que le médicaments réel et si le patient ne sait pas qu’il prend un placebo, pour certaines maladies le taux peut monter à 30% voire 40% de guérison juste en « soignant » par un placebo(1).

L’idée de donner au groupe contrôle un Placebo est aussi de chercher l’efficacité de ce dernier sur la guérison de la maladie pour le comparer à notre traitement au Rapetissnez. Si à la fin de l’étude le résultat du traitement ne dépasse pas celui du placebo, cela signifie qu’il n’est pas efficace contre la maladie.

Simple et double aveugle

Enfin, et c’est très important pour la réussite de l’étude, on veillera à ce qu’elle soit au moins réalisée en simple aveugle, c’est à dire que les cobayes ne sauront pas si ils prennent le Rapetissnez ou le placebo, en fait on veillera à tous leur dire qu’il prennent le traitement actif, et cela pour être sûr que l’effet Placebo fonctionne au maximum chez le groupe contrôle(3).

Cependant nous sommes des scientifiques sérieux et voulons être sûr que l’étude ne soit pas biaisé par l’expérimentateur, en effet si ce dernier sait qu’il administre un placebo ou le traitement il peut avoir une tendance naturelle à influencer le cobaye, et ce même de façon involontaire par tout un tas de biais cognitifs(2). On va donc s’assurer que ni le cobaye, ni l’expérimentateur ne savent ce qu’ils prennent / donnent, on appelle ça le double-aveugle(3).

Conclusion

A la fin de notre étude, on mesure le nez de tout les participants et on le compare à la mesure initiale pour observer (ou non) une évolution. Si le groupe testé obtient des résultats significativement plus élevés que le groupe contrôle et que l’évolution naturelle de la maladie, alors on pourra conclure sur l’efficacité du Rapetissnez.

Gardez bien en tête que j’ai simplifié l’exemple à l’extrême, il faut aussi que la taille de la population soit assez importante, on peut difficilement faire des conclusions statistiques avec une population de 5 personnes. On peut aussi faire des études pour comparer l’efficacité de plusieurs traitement entre eux, etc.

Mon but ici est simplement d’expliquer comment et pourquoi on utilise cette méthode, qui, pour résumer, consiste à :

  • Prendre une population représentative
  • Créer un groupe contrôle qui sera dans les mêmes conditions expérimentales
  • Randomiser les deux groupes pour que les facteurs de confusion aient la même influence
  • Réaliser l’étude en simple ou double-aveugle pour éviter de biaiser les résultats

Voilà, j’espère que cet article vous aura plu et que j’ai réussi à démystifié un peu le monde de l’étude scientifique, n’hésiter pas à commenter, réagir et donner votre avis. 🙂

Sources :

(1) http://www.txrating.org/spc/polycop/groupe%20control.htm

(2) https://associationslibres.wordpress.com/2016/10/14/petit-guide-exhaustif-des-biais-cognitifs/

(3) http://boowiki.info/art/la-recherche-scientifique/double-aveugle.html

La (vrai) vie sociale pendant le confinement

La période de confinent que nous avons vécu a été complètement inédite, restriction des déplacements, télétravail forcé, chômage partiel, cela a profondément impacté notre quotidien mais cela nous a aussi donné quelque chose dont nous manquions : du temps !

Du temps pour soit, du temps pour découvrir les magasins locaux, du temps pour développer des projets, du temps pour réfléchir, dans nos vies autrefois hyperactives nous n’avions pas ce temps là, la routine du « métro boulot dodo ». Du jour au lendemain nous voilà confiné chez nous avec le temps de faire beaucoup de choses que l’on ne faisait pas, ou plus.

Évidemment tout le monde n’a pas vécu le confinement dans les mêmes conditions, que l’on soit seul ou pas, en maison ou en appartement le temps a forcément dû paraitre plus ou moins long, sans compter tout les métiers jugés essentiels qui, eux, ont dû travailler beaucoup plus qu’avant pour pouvoir nous soigner, nous nourrir et nous protéger, gardons le à l’esprit !

Dans l’ensemble cela a de toute évidence impacté nos modes de consommation, cela nous a rendu moins sujet à l’achat impulsif en supermarché (faire ses courses le plus rapidement possible pour éviter la contamination potentielle), plus adepte des magasins locaux (soutenir l’économie locale) et surtout un regain d’intérêt pour la cuisine maison(1)!

Mais il y a une autre facette qui a pu changer dans le regard que nous portons sur le monde, celle de la vie de quartier ! On le sait depuis quelques années maintenant, avec le nombre d’études sur le sujet, les gens se sentent de plus en plus seuls, surtout en ville(2). La solitude est l’un des maux du 21ième siècle, dans notre société qui prône la propriété privée et l’individualisme, les gens ne font même plus attention à leur voisin.

Alors évidemment, confinement oblige, ceux qui habitent tout seul dans leur appartement on forcément été confronté de façon plus ou moins importante à cette solitude, vu qu’il n’y avait quasiment plus de possibilité de sorties ni de rencontres.

Pour ma part, j’ai la chance d’être en colocation dans une grande maison pourvu d’un immense balcon orienté plein sud : avec une vue imprenable sur les terrasses des voisins de l’immeuble d’en face, voisins avec qui nous n’avions aucunes interactions par le passé, en fait on n’a jamais pris le temps de se parler.

Redécouvrir la vie de quartier

Un jour, à 20h, au moment des applaudissements quotidiens destinés au personnel soignant, nous avons décidé de jouer de la musique sur le balcon. La surprise fût de taille, les voisins se sont mis à applaudir une fois le mini concert terminé. Certains même commencèrent à descendre sur le parking en dessous du balcon, bientôt rejoint par un autre, puis un autre. Nous avons donc recommencé le lendemain, puis le jour suivant, et finalement tous les jours jusqu’à la fin du confinement, au fur et à mesure cela devenait le rituel de 20h, descendre sur la parking pour écouter le concert et prendre l’apéro à distance.

Cela nous a donc permit de rencontrer un certain nombre de voisins, vieux ou jeunes, seuls ou en couples, avec ou sans enfants, tous de milieux et professions différentes. Je ne m’étais jamais posé la question de qui habitait en face, ce qu’ils faisaient dans la vie, je n’avais pas le temps de m’y intéresser, alors qu’au final chacun apporte son lot de richesse.

On se dit souvent qu’il nous faut voyager loin pour découvrir de nouvelles choses alors qu’il suffit des fois juste de parler à ses voisins pour faire des rencontres surprenantes. Et on se sent beaucoup moins seul après, on se croise à l’occasion, on se refait des apéros et des barbecues et on s’entraide en cas de besoin.

Ce qui, au final, créé une petite communauté au sein même d’un quartier, on a eu le temps de discuter de pleins de sujets différents, et notamment de la vie du quartier, de l’absence de commerces de proximité que nous déplorons tous, des bons plans pour obtenir des masques ou produits locaux, je me sentait alors déjà plus en symbiose avec mon environnement local.

Merci d’avoir lu cet article jusqu’au bout, n’hésitez pas à commenter, partager, réagir dans les commentaires, on s’améliore toujours avec l’avis de tous ! 🙂

Sources

(1) https://cheekmagazine.fr/societe/confinement-changer-habitudes-consommation/

(2) https://www.ipsos.com/fr-fr/solitude-93-des-francais-pensent-quon-peut-facilement-se-sentir-seul-en-ville

Pourquoi ne peux-t-on pas se passer du nucléaire ?

Bien que la part du nucléaire diminue dans la production d’électricité française, elle n’en reste pas moins majoritaire par rapport aux énergie renouvelables, on va essayer aujourd’hui de faire un (petit) décryptage de la production et la consommation d’électricité en France.

Bon, avec un titre pareil il va falloir quelques explications. Le sujet de l’énergie étant assez complexe, je vais l’aborder de la façon la plus simple possible ici, je vais rester très factuel et essayer d’expliquer les enjeux liés à l’énergie électrique.

Comment fabrique-t-on de l’électricité ?

Eh oui, l’électricité ne se trouve pas dans la nature, il faut forcément partir d’une énergie primaire pour la convertir en électricité (énergie finale)(1).

Pour ça on n’a pas 36 solutions ; celle la plus répandue à grande échelle est de faire tourner un alternateur. Il faut donc fabriquer de l’énergie mécanique à partir d’une source primaire pour l’alimenter. La principale manière de fabriquer cette énergie est d’utiliser de la vapeur, on vient alors chauffer de l’eau en brûlant un combustible (charbon, fioul et gaz pour des centrales thermiques classiques, fission d’atomes pour les centrales nucléaires) qui se transforme en vapeur et alimente une turbine pour faire tourner l’alternateur et créer de l’électricité.

Les autres façons de récupérer de l’énergie mécanique sont d’utiliser les forces de la natures ; le vent pour les éoliennes, l’énergie de l’écoulement de l’eau pour les centrales hydrauliques (barrages). On peut à cela ajouter le solaire photovoltaïque qui fonctionne différemment vu qu’il transforme directement les rayons ultraviolets du soleil en électricité.

Ces autres façons sont ce qu’on appelle des énergies renouvelables vu que l’énergie primaire utilisée est considérée comme infini (tant qu’il y a du vent, de l’eau et du soleil). Elles sont aussi considérées comme des énergies vertes vu qu’elle n’émettent pas de CO2.

Le problème du stockage

Le principal problème avec l’énergie électrique est qu’il est impossible de la stocker à grande échelle (même à petite échelle cela reste compliqué, nécessitant l’utilisation de batteries posant d’autres questions de production et de recyclage), il faut donc que la production d’électricité « colle » parfaitement avec la consommation, en cas de déficit de consommation, il faut évacuer le surplus, ce qui explique pourquoi on peut observer certaines fois l’éclairage public qui s’allume en pleine journée ou des éoliennes tourner sans vent.

Concernant les énergies renouvelables, le principal soucis avec l’éolien et le solaire est le côté intermittent de la production ; le solaire ne produit rien sans énergie solaire directe et l’éolien non plus sans vent, on ne pourra donc jamais substituer la totalité de la production avec ces deux méthodes.

L’exploitation de l’énergie hydraulique est déjà plus prometteur, elle représente déjà 12% de la production d’électricité en France, mais a un inconvénient de taille : il faut inonder une vallée ! Ce qui représente évidemment une contrainte environnemental majeure puisque cela a un gros impact sur les écosystèmes.

Les chiffres de la production d’énergie

La production d’énergie électrique en France en 2018 était de 548 TWh (Tera watt-heure), si on regarde la répartition de cette production on se rend compte que le nucléaire représente environ 72% de cette production nette.

Source : RTE Bilan 2018 (2)

Le nucléaire est donc toujours (et de loin !) notre principale source de production d’énergie électrique, on constate aussi que la part de l’éolien et du solaire n’est que de 7%, ce qui correspond à la même part que les centrales thermiques (centrales à vapeur à base de combustion de charbons, fioul et gaz).

Électricité et énergie spécifique

Maintenant on peut se poser la question sur l’utilisation de l’électricité en tant qu’énergie finale. On peut en effet distinguer deux sortes d’électricité. La première, dite « non substituable » concerne tout les appareils qui ne peuvent fonctionner qu’avec de l’électricité (l’éclairage, les ascenseurs, l’électroménager), on parle alors d’électricité spécifique, on ne peut pas la substituer par une autre énergie.

La deuxième est non spécifique et concerne principalement le chauffage de l’eau (eau chaude et chauffage individuel), ici on peut très bien substituer l’électricité par une autre forme d’énergie (fioul, gaz). Cependant, avec le développement du parc nucléaire français on a largement favorisé le chauffage électrique, qui représente à lui seul 35% de la consommation d’électricité en France, chiffre qui peut monter à 40% lors des périodes de grand froids l’hiver ce qui met à saturation toute nos capacités de production, on en vient même à importer de l’électricité d’Allemagne pour éviter le blackout(3).

Quel plan pour le futur ?

La production / consommation d’électricité a été multipliée par 4 de 1970 à 2010(4), elle est depuis relativement stable mais augmente quand même légèrement chaque année (+3.7% entre 2017 et 2018). Si on se projette dans le futur on peut se dire qu’elle continuera à progresser et pourra subir de nettes augmentations avec l’arrivée des voitures électriques par exemple (il faudra bien recharger les batteries quelque part !).

On a vu ce qu’était l’électricité, comment la produire, l’impossibilité de la stocker et comment elle était plus ou moins bien utilisée. Pour répondre maintenant à la question « peut-on se passer du nucléaire ? » la réponse est « non, pas avec notre consommation actuelle ». Il faudrait réduire notre consommation par 2 ou 3 pour pouvoir espérer vivre qu’avec des énergies « propres » et renouvelables(5).

On pourrait déjà se poser la question de l’utilisation de l’électricité non spécifique, l’électricité étant relativement compliqué à produire, on ne devrait l’utiliser que pour des usages spécifiques (parce que chauffer de l’eau pour créer de l’électricité qui servira à … chauffer de l’eau, avec toute les pertes que cela induit c’est un peu aberrant…)

On pourrait aussi repenser les modes de production, que chacun puisse produire de l’électricité chez soi pour assurer les besoins locaux (moins de pertes dues au transport), exploiter les surfaces des toits pour récupérer la chaleur du soleil, bref, avoir une vision plus locale des choses, plus en cohérence avec notre environnement proche.

Merci d’avoir lu cet article jusqu’au bout, n’hésitez pas à commenter, partager, réagir dans les commentaires, on s’améliore toujours avec l’avis de tous ! 🙂

Sources :

(1) https://jancovici.com/transition-energetique/electricite/quelle-part-de-lelectricite-dans-la-consommation-francaise-denergie/

(2) https://bilan-electrique-2018.rte-france.com/production-totale/#

(3) https://www.picbleu.fr/page/pourquoi-faut-il-limiter-le-chauffage-electrique

(4) https://www.ecologique-solidaire.gouv.fr/production-delectricite

(5) https://jancovici.com/transition-energetique/renouvelables/pourrions-nous-vivre-comme-aujourdhui-avec-juste-des-renouvelables/

Le plus recyclable des déchets !

Quel est le déchet que l’on pourrait qualifier de plus recyclable possible ? On aurait naturellement tendance à penser à la canette en métal ! Mais pourquoi donc ?

Tout d’abord je pense qu’il est nécessaire de définir ce qu’est un métal. Ce n’est pas un matériau mais une famille de matériaux faisant partie des quatre grandes familles suivantes :

  • les céramiques (verre, porcelaine, pierre)
  • les organiques (bois, coton, lin et autres fibres naturelles)
  • les plastiques (thermoplastiques et thermodurcissables)
  • les métaux

à cela s’ajoute une cinquième famille que l’on appelle les composites, mais qui ne regroupe que des assemblages entre les quatre premières familles.

Et dans la famille des métaux on peut encore faire une distinction entre deux types différents :

  • Les ferreux : Tout les alliages qui contiennent du fer (Acier, Fonte)
  • Les non ferreux : Tout le reste (Aluminium, cuivre, étain)

Les deux métaux les plus utilisés dans le monde sont l’acier et l’aluminium

La principale distinction qui nous intéresse entre ces deux familles est une des propriétés du fer. A l’état naturel, il a des propriétés magnétiques passives, ce qui le rend particulièrement facile à collecter.

En effet, la majorité de l’acier utilisé dans le monde est recyclé, et cela grâce à un taux de collecte exceptionnel(1) vu que, même en cas d’erreur de tri et s’il finit dans un sac poubelle noir, il pourra être récupéré dans les mâchefers (les restes de déchets brûlés à la sortie de l’incinérateur ) à l’aide de gros aimants (on aura cependant utilisé de l’énergie pour le brûler).

Mais revenons à nos canettes, acier ou aluminium ?

Quand j’étais petit mon père m’apprenait qu’on pouvait facilement déterminer si le matériel était un acier à l’aide d’un aimant (il travaillait dans la sidérurgie, dans une entreprise qui produit justement de l’acier à usage alimentaire). Je me souviens très bien qu’à l’époque les cannettes étaient 100% en acier. Super donc !

Le « marché » de la canette

Sauf que la donne a un petit peu changé depuis. Je suis tombé récemment sur un article de la Start-up « la boucle verte » nommé « La désillusion d’une start-up de l’économie circulaire » (Je vous invite à aller le lire il nous apprend pas mal de choses intéressantes). Il s’agit en fait du créateur de cette start-up qui nous explique pourquoi ils ont jetés l’éponge et la vérité derrière le recyclage des canettes.

Pour résumer, la boucle verte c’est une petite start-up qui avait pour ambition de collecter des déchets pour les revendre à des entreprises qui les retransformerait en matière première, et ainsi améliorer l’économie circulaire. Quoi de plus naturel pour commencer que de choisir cette bonne vieille canette, « Soi-disant composée à 100% de métal et recyclable à l’infini ». Après leur première désillusion sur la valeur du métal (un maigre butin de 38€ chez le ferrailleur correspondant, en gros, à une camionnette rempli de canette) ils décidèrent de faire la collecte directement auprès des fast-food grâce à leur fameux « Can’ivor ». Il se sont rendu compte à ce moment là que la plupart de leur client s’associait à eux non pas par soucis de récupérer des canettes usagées mais bien pour améliorer leur image écologique (le fameux « Green washing »).

Mais ce qui nous intéresse vient après. Dans beaucoup de site qui traite du sujet on peut lire, qu’en France, « 60% des canettes aluminium sont recyclées »(2) (bon cela implique déjà qu’il doit y avoir pas mal de canettes en aluminium…), ils sont donc parti en quête d’informations pour vérifier ce chiffre, et… c’est pas joli joli…

Sur les 100% de canettes aluminium jetées en France :

  • 20% partent au recyclage (tri sélectif)
  • 80% partent dans le tout venant

Sur les 80% qui partent au tout venant, la moitié est « valorisé » en récupérant les résidus des mâchefers : Sur cette partie « valorisée », 45% de l’aluminium est récupéré et refondu (en ayant perdu beaucoup de propriétés mécaniques) et les 55% restant sont, tout simplement utilisés dans le BTP comme sous-couche routière, comme tout le reste des mâchefers en fait…

Donc, après avoir remis les chiffres à leur place, on a donc, en France, sur 100% de canettes aluminium jetées :

  • 38% sont recyclées comme matière première secondaire
  • 22% sont « valorisées » en sous-couche routière
  • 40% sont directement enfouies en décharge

Pas très sexy en effet… Je vous laisse lire la suite de l’article si le cœur vous en dit, c’est un décryptage très intéressant sur le business du recyclage, « l’illusion de la croissance verte » (ce qui n’est pas le sujet d’aujourd’hui, mais on y reviendra)

Canette Acier ou canette Alu ?

Bon, et nos canettes acier alors ? elles en sont où ? Ayant encore chez moi dans un stock poussiéreux quelques canettes d’une célèbre marque américaine de détergent et un bon gros aimant néodyme, je vais faire le test afin d’être fixé !

Eh bien surprise ! On y trouve les deux ! En effet le corps + le fond de la canette sont en acier tandis que l’opercule du dessus + la languette sont en Aluminium !

Et là, c’est le drame ! Corps en Acier et opercule + languette en Alu ! (On notera au passage la mention « Je suis 100% recyclable »)

Du coup on est quasiment certain que l’opercule en Alu ne sera jamais recyclé, une si petite partie noyée dans un corps en acier ne vaut clairement pas le coup.

Le meilleur déchet ?

C’est bien beau tout ça, mais qu’est ce que ça nous apprend ? Même si les canettes étaient faites uniquement d’acier, certes c’est recyclable, mais ça demande quand même beaucoup d’énergie à fondre, collecter, refondre (sans compter l’énergie inutilement gaspillée dans les incinérateurs quand elles arrivent par le tout venant) et tout ça pour un objet dont la durée de vie d’utilisation n’est seulement que de quelques heures (voire quelques minutes).

Et là on ne parle que du métal, l’une des matières les plus faciles à recycler, tout les autres plastiques, déchets souillés et autres emballages multi-matériau qu’on ne sait même pas recycler, que l’on « valorise » en brûlant, la plupart de nos déchets finissent sous nos routes ou dans une décharge…

Le meilleur déchet ? c’est tout simplement celui qu’on ne produit pas, on peut mettre en place toutes les politiques de tri, recyclage et « revalorisation » possible et imaginable, cela restera toujours un gaspillage de temps, de ressources et d’énergie, la meilleure façon de l’éviter, c’est de ne pas le créer.

Merci d’avoir lu cet article jusqu’au bout, n’hésitez pas à commenter, partager, réagir dans les commentaires, on s’améliore toujours avec l’avis de tous ! 🙂

Sources :

(1) https://www.citeo.com/le-mag/les-chiffres-du-recyclage-en-france/

(2) https://www.elise.com.fr/les-dechets-recycles/recyclage-canettes.html

Qu’est ce qu’un produit alimentaire industriel ?

Les produits alimentaires industriels sont apparus avec la société de consommation dès le milieu du 20ième siècle. Leur objectif ? Pouvoir produire de grande quantité de nourriture à un prix défiant toute concurrence.

On appelle « produit industriel » tout produit qui résulte d’un process industrialisé (en plus ou moins grande série). Qu’est ce qu’un process industrialisé ? C’est un processus cadré selon des règles bien précises dont le but est de sortir des produits à une cadence précise et, surtout, de façon complétement identiques. En gros le premier produit à être sorti de ligne au début de la journée doit être le plus possible identique au dernier.

Dans l’industrie cela prend évidemment tout son sens, il faut que les pièces soient le plus identiques possible pour pouvoir les assembler, et qu’elles assurent leur fonction durant toute leur durée de vie. Mais pour l’alimentaire ? Quelle est la fonction de la nourriture ?

Nourrir, certes, les produits alimentaires sont des produits de première nécessité car tout le monde est obligé d’en consommer pour survivre, c’est un besoin humain essentiel cela va de soit. Sauf que les matières premières utilisées viennent, elle, de la nature (bon tout vient de la nature à la base hein !), mais surtout uniquement du vivant (si quelqu’un vous dis qu’il ne consomme rien de ce qui a été vivant un jour, c’est qu’il fait une grève de la faim !).

Et le vivant c’est synonyme de différence, pour chaque individu de chaque espèce il n’existe aucun autre individu identique, grâce à l’évolution des gènes on a une biodiversité des individus (en plus de celle des espèces).

On commence alors à distinguer le problème, quand les industriels de l’agroalimentaire se sont penchés sur la question, il fallait qu’ils sortent des produits finis totalement identiques, n’ayant en entrée que des matières premières « différentes ».

Transformer, transformer, transformer !

Du coup, la solution est de tout transformer, de A à Z, on sélectionne dès la graine celles au meilleur rendement, qui pousse de la même façon et à la même hauteur dans toutes les conditions climatiques (on uniformise la nature en quelque sorte) et ont leur fait subir tout un tas de traitement, nettoyage, décantage, raffinage, séchage pour se débarrasser « des impuretés » ou au contraire ne concentrer qu’une partie des « propriétés » de l’ingrédient. On obtient ainsi tout un tas de poudre, pâtes, huiles et liquides que l’on va pouvoir joyeusement mélanger ensemble et qui donneront toujours le même produit, c’est beau la chimie(1).

C’est beau oui mais il y a un hic, la fonction première (et unique d’ailleurs ?) d’un aliment c’est de nourrir, avec tout un tas de nutriments et oligo-éléments essentiels au fonctionnement du corps humain. Le problème est qu’à force de transformations tout ces aliments on perdus la majeure partie de leur nutriments (ainsi que leur couleurs et leurs goûts).

Heureusement il y a les additifs alimentaires ! Toute une chatoyante panoplie de colorants, conservateurs, exhausteurs de gouts, arôme artificiels et j’en passe. Youpi ! on va pouvoir compléter notre attirail de chimiste pour donner la forme, la texture, le goût et la couleur que l’on souhaite à nos produits, on peut créer l’aliment parfait, formidable non ?

Ben, non, pas si formidable que ça, pour deux raisons :

  • Cela n’apportera jamais toute la richesse nutritionnelle d’un produit non industriel ! En effet malgré tous les ajouts artificiels on n’attendra jamais la qualité nutritive d’un produit « artisanal » qui contiendra bien plus d’éléments, certes en quantité minimes, mais quand même présents(2).
  • C’est mauvais pour la santé ! Le corps humain se souvient de tout, tout ce que vous ingérer se retrouve quelque part dans votre corps (en plus petite quantité certes, la majorité étant évacué par la digestion) et cela pose problème. De plus en plus d’études démontrent les effets néfastes (perturbateurs endocriniens, produits cancérigènes ou tout simplement toxiques) des additifs(3).

à cela je rajouterai une troisième raison :

  • C’est… pas bon, vraiment pas bon ! Étant grand adepte de cuisine maison et de saveurs toujours plus raffinés, je ne comprend même pas comment on peut acheter un plat « cuisiné » tout fait dont la sauce ressemble à du plastique et qui sent le renfermé ! (Hommage à Jean-Pierre Coffe qui n’hésitait pas à qualifier les produits industriels de « merde » en direct à la télé ou à la radio, c’était il y a 30 ans mais pas grand chose n’a changé…)

Bon super, maintenant qu’est ce qu’on fait ? Parce que tout le monde n’a pas forcément le temps (ni l’argent !) de faire la tournée des magasins de proximité pour manger du local/artisanal/bio/naturel/éthique/responsable/etc. (on y reviendra dans un prochain article).

Limiter sa consommation

Même en allant uniquement en supermarché il est possible de limiter drastiquement sa consommation de produits industriels, en suivant deux règles simples :

  1. Privilégié les ingrédients seuls. Il y a beaucoup moins de chance de trouver des additifs en quantité dans les ingrédients seuls que dans les produits que l’on appelle « ultra-transformés » (typiquement les plats tout fait à réchauffer au micro-onde, beurk…). Bon par contre il faudra cuisiner tout ça après 😉
  2. Regarder la liste des ingrédients. Entre les huiles hydrogénées, le glutamate monosodique, le benzoate de potassium, la lécithine de soja et autres cocktails de colorants et conservateurs difficile de se retrouver pour savoir ce qui est bon ou pas ! Ici la règle est simple, si vous ne connaissez pas l’ingrédient et qu’il ne se trouve pas dans votre placard de cuisine, c’est qu’il ne sert à rien !
Un bon exemple avec ces nouilles instantanées et leur « poudre d’assaisonnement », rien que les nouilles contiennent trois types de stabilisants !

Évidemment il n’y a pas que les additifs à prendre en compte, il faut aussi attention à la quantité de sucre, sel et matière grasse mis à outrance dans les produits transformés ou pour remplacer des additifs (gras, sucre et sel = plaisir !). La meilleur façon de maitriser ces quantités reste de faire la cuisine soit même ! On y reviendra aussi ! 😉

Merci d’avoir lu cet article jusqu’au bout, n’hésitez pas à commenter, partager, réagir dans les commentaires, on s’améliore toujours avec l’avis de tous ! 🙂

Sources :

(1) https://www.lanutrition.fr/les-news/quest-ce-quun-aliment-ultra-transforme-

(2) https://www.mangerbouger.fr/pro/sante/alimentation-19/nouvelles-recommandations-adultes/rubrique-test/les-aliments-gras-sucres-sales-et-ultra-transformes.html

(3) https://www.consoglobe.com/additifs-alimentaires-fiche-pratique-cg

Néo World – Introduction

Bienvenue sur Néo World !

Ici, le but est de faire part de mes réflexions sur une problématique de plus en plus d’actualité, que je traduirais par :

Comment vivre dans un environnement sain, en bonne santé et en symbiose avec la nature tout en conservant un certain confort et un équilibre de vie ?

Question que de plus en plus de gens se posent dans le contexte actuel, à savoir un monde de plus en plus enfermé dans un système néolibéral infernal à croissance illimité, partant donc du principe que les ressources sont illimités. Or, on s’en rend compte années après années, les ressources vont venir à manquer et nous dégradons de plus en plus notre environnement de vie avec les nombreuses pollutions engendrées par la mondialisation à outrance.

Je reste pour ma part convaincu d’une chose, le futur doit être local ! Par local j’entends une gestion le plus locale possible des ressources et des populations, car un même problème ne se résout pas forcément avec les même solutions selon que l’on soit en ville où à la campagne, dans une région au climat doux ou froid, etc.

Ainsi, j’ai décidé de parler (enfin d’écrire) de la Vie Local du Futur à travers 5 grands thèmes tous liés à un besoin plus ou moins primaire de l’être humain. Ainsi on retrouve :

  • La Mer (représente l’environnement)
  • La Terre (représente la nourriture)
  • L’Énergie (représente le confort)
  • La Culture (représente le divertissement)
  • La Vie (représente la vie sociale)

Ces thèmes ont évidemment été choisis de façon totalement arbitraire sur des sujets qui me tiennent à cœur. Par exemple le choix de la mer pour représenter l’environnement n’est pas anodin, en effet il faut savoir que la majorité des déchets que l’on voit trainer sur terre finissent dans la mer, j’ai ainsi préféré axer la Terre sur la thématique de la nourriture, qui me tiens particulièrement à cœur par une autre de mes passions : La cuisine !

Je vais donc essayer d’apporter mes réflexions, idées, propositions où solutions à travers ces grandes thématiques en usant de bon sens et de pragmatisme, en espérant que cela vous plaise, car le but est bien évidemment de dessiner ensemble ce futur ! 🙂

N’hésiter pas non plus à me dire ce que vous pensez de votre côté, que ce soit sur le fond des sujets abordés ou la forme du site (le design reste sujet à amélioration), je suis toujours ouvert aux nouvelles propositions !