Ce que la Tech nous apprend sur la culture d’entreprise

La culture Tech fait l’objet d’une fascination du grand public, même si l’on peut douter qu’un ensemble homogène de valeurs soit réellement partagé dans le secteur. Jusqu'en 2014, la devise interne de Facebook était "move fast, break things" mais, comme toutes les entreprises au-delà d'une certaine taille, les géants de la Tech ne peuvent pas se permettre de "tout casser" lorsqu'ils essaient d'avancer vite. Et c'est précisément l’objectif qu'une culture d'entreprise contribue à atteindre. En réalité, il y a plus à apprendre sur la culture et les ingrédients du succès d'une organisation en étudiant les sciences sous-jacentes de la technologie, qu'en essayant de cerner ce qu'est la culture Tech.

En début du mois, j'ai suivi une formation organisée par les Ressources Humaines de mon employeur – une société de gestion de fonds de Private Equity – sur la culture Tech et les ingrédients du succès des géants de la Tech. Le conférencier, Bruce Daisley, a partagé son expérience chez Youtube et Twitter et a exposé à l’audience d'innombrables anecdotes illustrant les différentes formes que la culture d'entreprise pouvait prendre dans certaines des entreprises les plus connues dans la Tech, anciennement regroupées sous l’acronyme de FAANG. Bien qu'il n'y eut pas de véritable recommandation quant aux ingrédients qu'une société de capital-investissement devrait introduire dans sa recette culturelle, l'événement fut un succès indéniable à en juger par la participation des employés et l'attention tout au long de la présentation. Cela reflète certainement l’attraction générale que suscite le secteur, malgré les récents vents contraires, mais cela répondait aussi clairement à une attente de l’audience pour quelque chose de différent par rapport aux formations que les employés reçoivent typiquement au cours de leur carrière.

La présentation ne visait pas tant l’innovation que la nécessité de rester pertinent (c'est-à-dire d'éviter d’être victimes des ruptures) et efficace à mesure qu'une entreprise grandit. Concernant l’expansion, l'exemple de la communication interne d'Amazon aurait certainement mérité une analyse approfondie : selon Daisley, la communication entre les équipes y est limitée, les présentations Powerpoint sont bannies, et les décisionnaires reçoivent des documents de 4 à 6 pages qu'ils lisent tous en ouverture de « réunions silencieuses ». Tout comme pour la supposée répartition du temps des employés à 70/20/10 chez Google - qui avait une réalité pratique limitée en interne-, il est tout à fait possible que la communication interne d'Amazon ne respecte les règles énoncées - et les réunions silencieuses n'ont jamais empêché des scandales de grande ampleur. Pourtant, ces directives façonnent la culture d’entreprise d'Amazon en vue d'éviter les distractions dans la conduite des opérations.

Le cas d’Amazon est intéressant car la communication est une composante explicite de la culture d'entreprise alors que, pour la plupart des organisations, la relation entre culture et communication est implicite. Mais dans tous les cas, plus la culture est forte, plus l'organisation est efficace dans sa communication interne. Si vous connaissez la théorie de l'information, vous comprenez probablement comment la culture stimule l'efficacité.

La théorie de l'information est un domaine des mathématiques développé par le mathématicien et ingénieur américain Claude Shannon à la fin des années 1940 et qui étudie la quantification, le stockage et la communication de l'information. La théorie de l’information a trouvé des applications dans la compression des données, la cryptographie, la détection/correction d'interférences dans les signaux… Cette science a été au cœur du développement de toutes les méthodes de communication modernes, y compris pour communiquer avec des objets à des millions de kilomètres dans l'espace.

Si Shannon est parfois considéré comme le père de la Tech, ce n'est probablement pas pour sa théorie de l'information, mais plutôt pour une contribution bien plus fondamentale à l'informatique puisqu'il eut l'idée que des commutateurs dans des circuits électriques pourraient être utilisés pour coder des informations (avec des 0 ou des 1 selon les positions des commutateurs). Il est tout simplement l'inventeur du bit et le mémoire de maîtrise dans lequel il décrivit cette application en 1937 fut plus tard surnommé «le mémoire le plus important du XXe siècle».

Claude Shannon (1916-2001)
Source :MIT Museum

À la base de la théorie de l'information, la grande perspicacité de Shannon fut d'établir un lien entre les probabilités et la quantité d'informations nécessaires pour transmettre un message. Tout le monde ou presque applique la théorie de l'information quotidiennement sans le savoir : lorsque vous envoyez ou recevez un SMS en ignorant des lettres (souvent des voyelles), le message reste compréhensible car vous pouvez mentalement combler les trous. Le remplissage est relativement aisé en raison du nombre limité de lettres parmi lesquelles choisir et les options sont encore moins nombreuses pour créer de vrais mots. Plus les probabilités sont élevées, plus la quantité d'informations nécessaires est faible ; et c'est exactement ainsi que la culture améliore l'efficacité dans la communication. Cela s'applique non seulement à la culture d'entreprise, mais également à tout cadre partagé au sein d’un groupe, y compris des règles ou des lois explicites, affectant les probabilités dans la formation des idées, dans la communication et, en bout de chaine, dans les actions.

En 1950, le mathématicien et philosophe américain Norbert Wiener déclara dans son livre visionnaire The Human Use of Human Beings : Cybernetics and Society que « nous ne sommes pas des choses qui perdurent mais des modèles qui se perpétuent. Un modèle est un message », soutenant l'idée que l'humanité est mieux décrite par une(des) culture(s) que par « chaque molécule en elle », et donc la théorie de l'information s'applique à des groupes de personnes.

Wiener est considéré comme l'inventeur de la cybernétique, la science de la communication entre êtres vivants et machines. Il a étudié la théorie de l'information indépendamment de Shannon à peu près à la même époque. Wiener était membre de la faculté du MIT lorsque Shannon y étudiait et, bien que leurs approches furent différentes sur quelques aspects, Shannon a crédité Wiener dans certains papiers sur l'entropie. Aujourd'hui, Wiener est principalement célèbre pour ses travaux sur les mécanismes de rétroaction dans les réseaux neuronaux avec John von Neumann à la fin des années 1940. Cette approche d'apprentissage automatique - très théorique à l'époque - fut abandonnée au cours de la seconde moitié du 20e siècle en raison de contraintes techniques et de la trop faible quantité de données disponibles. Mais le Big Data et les innovations technologiques au début du 21e siècle (les semi-conducteurs, le cloud computing…) ont permis à cette approche de s'imposer.

Norbert Wiener (1894-1964)
Source : Tekniska Museet, via Flickr

En poussant la théorie de l'information à l'extrême, si la culture est si forte que vous savez par avance ce qu’il va se passer, aucune information ne peut être transmise, et vous n'avez donc pas besoin de message ; pas besoin de réunion. Les individus peuvent avoir d'autres motivations pour continuer à produire des données, mais personne n'en apprendrait quoi que ce soit, et leur contenu informatif serait pratiquement nul (on apprendrait tout de même que les individus en question ont d’autres motivations…).

À ce stade, vous auriez raison de souligner que l'utilisation de la culture pour minimiser la quantité d'informations à traiter – simplement en augmentant les probabilités de certains événements au détriment des autres - contredit l’idée même de diversité. Pour un département des Ressources Humaines, choisir la Tech comme toile de fond à une formation sur la culture d'entreprise est un pari intéressant car c'est probablement dans ce secteur que la tension entre efficacité et diversité est la plus évidente.

D'une part, la Tech produit des outils qui peuvent réduire l’espérance mathématique du contenu informatif - appelée « entropie » en théorie de l'information – jusqu’à des niveaux qu'aucune culture d'entreprise ne pourrait jamais atteindre (les concepts de « maîtres » et « esclaves » sont encore couramment utilisé pour décrire les interactions de programmes informatiques). Les API peuvent fournir des données structurées de manière standardisée, les algorithmes peuvent encoder des chaînes causales et organiser les processus collaboratifs, les modèles peuvent guider la prise de décision… La technologie permet d'alléger les organisations et facilite leur croissance rapide, donc la tentation est grande pour les acteurs de la Tech de mettre en œuvre certaines de ces techniques pour rationaliser leurs propres opérations. Mais il y a toujours un risque qu'au fil du temps la capacité à traiter l’information des « expéditeurs » et des « destinataires » dans la chaîne de communication diminue. Soit parce que les employés sont naturellement remplacés par d'autres ayant des capacités d'apprentissage plus faibles, soit parce que les capacités existantes ne sont tout simplement pas entretenues : les événements à fort contenu informatif (c'est-à-dire les surprises) deviennent si rares qu'il est facile de perdre de vue la nécessité de maintenir de la capacité excédentaire.

D'autre part, compte tenu des barrières à l'entrée relativement faibles et de la rapidité de déploiement de nombreuses solutions technologiques, les acteurs de la Tech ont toutes les raisons de s’inquiéter d’être les victimes d’une innovation provoquant une rupture technologique. La principale préoccupation n'est pas tant d'empêcher le développement d’une technologie de rupture, que d'identifier ces innovations très tôt, grâce à des laboratoires de recherche internes ou externes, et d'intégrer ces nouvelles technologies à mesure qu'elles mûrissent afin de rester un acteur pertinent sur le long terme. Par définition, les innovations sont peu prévisibles donc leur contenu informatif est élevé, d'autant plus si elles ont un potentiel de rupture. Plus la surprise est élevée, plus le contenu informatif est important.

Deux forces s’opposent donc : un besoin de réduire l'entropie pour gagner en efficacité et un besoin de traiter les événements à haute teneur en information qui se produisent de manière inattendue. Bien qu'elles puissent être particulièrement fortes dans la Tech, ces deux forces s'excercent dans toute organisation, communauté ou population. Comme expliqué par Wiener dans Cybernetics and Society: "dans le contrôle et la communication, nous luttons toujours contre la tendance de la Nature […] à l'augmentation de l'entropie". Ici, Wiener fait référence au sens original de l'entropie, en physique, avant que Shannon n'adopte le terme pour sa science de la communication. L’entropie en physique mesure le désordre, le hasard ou l'incertitude. L'entropie est une pierre angulaire de la thermodynamique par exemple. La deuxième loi de la thermodynamique explique que, sans apport extérieur (c'est-à-dire pour une énergie interne donnée), l'entropie des systèmes isolés n'évolue que dans un sens : elle augmente avec le temps jusqu'à ce qu'un équilibre soit atteint au maximum du chaos.

Temps and entropie

Incidemment, l'augmentation de l'entropie est peut-être la seule preuve d'une direction du temps en physique - du moins selon la théorie de la relativité qui implique que notre sens du passage du temps n'est qu'une "illusion", pour reprendre les mots d'Albert Einstein. Ce lien entre temps et entropie semble également pertinent dans le contexte de la Culture, en particulier dans l'organisation des populations ou des communautés. Était-ce l'intuition de Hobbes lorsqu'il décrivait son Léviathan (1651) comme un homme artificiel dont les membres "se meuvent par des ressorts et des rouages comme [le fait] une montre" ?

Dans tous les cas, cela fait écho à une autre réalité des géants de la Tech qui peuvent accélérer le temps ou le ralentir selon leurs propres horloges "maîtres" pilotant des "esclaves" à travers le monde pour synchroniser des processus (mises à jour de bases de données, exécutions de scripts en séquences, ...) avant de servir les utilisateurs finaux1.

Lorsque l’on jongle entre les concepts d'entropie en physique et d'entropie en théorie de l'information, il ne faut pas perdre de vue que ces deux notions ne sont absolument pas équivalentes bien qu'elles évoquent toutes deux la diversité. Il est possible d'utiliser la culture comme un pont entre les deux ; une approche holistique avec laquelle Wiener était probablement à l'aise alors que Shannon était plus hésitant à généraliser. Tant qu'il s'agit de simples particules, les deux concepts sont presque synonymes, mais la capacité d'apprentissage des organismes vivants conduit à une contradiction majeure : une fois que l’on a fait l’expérience d’une chose de complètement inattendue - c'est-à-dire ayant une probabilité perçue de 0 - elle n'est plus complètement inattendue. Même si la nouvelle probabilité assignée est de 0,000001% au lieu de 0%, le contenu informatif de cet événement diminue donc l'entropie, au sens de la théorie de l'information, diminue. Et ceci est incompatible avec la seconde loi de la thermodynamique.

La plupart des gens associent directement l'intelligence à la capacité d'apprentissage, mais cette dernière n'est qu'une condition nécessaire à la première ; elle n'est pas suffisante. La capacité d'apprentissage et la Vie sont intimement liées même sous des formes très peu intelligentes. Les bactéries constituent l'une des premières formes de vie et l’une des plus simples, aussi basique qu'une cellule unique et sans noyau, souvent munie d'un seul chromosome. Elles se reproduisent par fission binaire, c’est-à-dire en produisant des clones. Malgré cette simplicité, ces organismes "apprennent", comme en témoigne leur génome, qui agit comme un registre des "surprises" qu'elles ont rencontrées par le passé : CRISPR-Cas9, la technologie d'édition du génome désormais déployée dans l'industrie pharmaceutique, est un mécanisme naturel utilisé par les bactéries pour intégrer des portions d'ADN des virus qui les ont infectées, développant ainsi une défense immunitaire pour le futur. Les systèmes immunitaires qui s'appuient sur un encodage dynamique de nouvelles informations dans l'ADN, afin de produire des protéines spécifiques lorsqu'une menace similaire se représentera, démontrent une capacité à "apprendre" qui est commune à la plupart des formes de vie, bien que les mécanismes pratiques puissent varier considérablement entre les espèces.

Quiconque s'intéresse aux technologies de l'information doit être fasciné par la machinerie ADN/ARN de la Nature. Cependant cette machinerie reste sujette à des erreurs qui modifient continuellement le code et maintiennent la Vie sur la voie de la Nature conduisant au chaos (selon la thermodynamique). Des mutations aléatoires modifient des gènes existants – un petit nombre de séquences de nucléotides qui encodent la fabrication des protéines – et des gènes de novo apparaissent à la suite de mutations aléatoires sur de l'ADN non-codant – les séquences de nucléotides représentant la grande majorité de l'ADN. De plus, il existe des transferts "horizontaux" où l'information génétique est transférée d'une espèce à une autre via des intermédiaires, généralement des bactéries ou des [rétro]virus qui peuvent capter du matériel génétique et/ou l’insérer dans le génome de leurs hôtes. On estime ainsi que jusqu'à 8% du génome humain est constitué de restes de rétrovirus alors que les humains n'utilisent pas [naturellement] CRISPR-Cas9.

L'organisme s'oppose au chaos, à la désintégration, à la mort, comme le message s'oppose au bruit. Pour décrire un organisme, on ne cherche pas à spécifier chaque molécule qu'il contient et à le cataloguer morceau par morceau, mais plutôt à répondre à certaines questions le concernant pour révéler son schéma : un schéma d'autant plus significatif et moins probable que l'organisme devient, pour ainsi dire, plus pleinement un organisme.

Norbert Wiener, 1950

Pour marcher dans les pas philosophiques de Wiener, la destination du train de la Nature est connue (l’entropie maximale) et la complexité de toute forme de vie peut être mesurée à sa capacité à ralentir le train. Le « schéma » que décrit Wiener définit l'intensité cette résistance. Pour ce faire, la Vie peut faire usage de nombreux outils, bien au-delà des diverses déclinaisons de la capacité d'apprentissage. La reproduction sexuée s'est par exemple révélée très efficace pour réduire la probabilité qu'une mutation ne soit transmise à la génération suivante à moins qu'elle n'apporte des avantages déterminants. En utilisant l'analogie des forces d’attraction et de répulsion à l’œuvre dans les systèmes planétaires, une idée de la soutenabilité pourrait être l'équilibre entre les deux forces opposées qui affectent l'entropie : si elle augmente trop, le système explose et les éléments se dispersent ; mais si elle diminue trop, le système s'effondre sur lui-même.

La biologie fournit de nombreux exemples d'entropie extrêmement faible, ce qui caractérise les espèces mûres pour un effondrement. Parmi ces exemples, un fruit illustre parfaitement les risques associés à l’optimisation. La banane est un fruit singulier: il est parthénocarpique ce qui signifie qu'aucune pollinisation n'est nécessaire pour produire des fruits. Cela rend la production de bananes relativement attrayante car la visibilité sur le rendement est plus élevée que pour les cultures normales.

Mais dans leurs formes originales, la plupart des variétés de bananes, une fois pollinisées, produisaient des fruits avec de grosses graines ce qui les rendaient non comestibles. Aussi les variétés ont-elles été sélectionnées pour produire de très petites graines (aujourd'hui, peu de gens réalisent que les bananes possèdent des graines) mais cela empêche l'espèce de se reproduire naturellement car les graines ne germent que très rarement. Les producteurs contournent ce problème en créant des clones d'un arbre à partir de tissu de rhizome, un type de racine. Le clonage a en outre l'avantage de produire des fruits à l'apparence homogène, ce que les commerçants apprécient (la plupart des gens ne réalisent pas non plus que toutes les bananes qu'ils consomment, même à plusieurs mois ou années d'intervalle, sont des clones). Si, en plus, vous parvenez à sélectionner une variété qui produit des bananes à la peau épaisse et poussant en régime dense, vous obtenez un fruit résistant et optimal pour le transport en bateau.

graines de banane
Source : Mkumaresa, via Wikimedia Commons

C’est par ce processus de domestication qu’un type de banane appelé Gros Michel est devenu dominant au cours du 19e siècle et, pendant plus de 100 ans, des bananes génétiquement identiques ont été consommées à travers le monde.

Les clones partagent les mêmes forces… et les mêmes faiblesses. C'est la raison pour laquelle il est très peu probable que vous connaissiez l’apparence de la banane Gros Michel, et encore moins son goût. La variété a été décimée par une maladie fongique - la maladie de Panama - à partir de la fin du 19e siècle. Les producteurs se sont tournés vers une autre variété, appelée Cavendish, aux caractéristiques similaires (petites graines, peau épaisse, mais goût différent) et apparemment résistante à la maladie de Panama. Représentant plus de 40% de la production mondiale et la majorité des exportations vers les pays développés, la banane Cavendish est la forme dominante depuis 1950. Et encore une fois, toutes les bananes sont pratiquement génétiquement identiques. Mais l'essor de la Cavendish n'a été qu'un répit pour l'industrie de la banane: une nouvelle souche de la maladie de Panama a commencé à attaquer les Cavendish en Asie en 2008 et la progression du champignon n'a jamais pu être contenue. Il a atteint l'Amérique latine en 2019 et est désormais présent sur tous les continents ; toujours sans traitement connu. Aujourd'hui, l'extinction commerciale de la banane Cavendish est considérée comme probable.

Pour revenir au sujet initial d’une culture d'entreprise optimale, l'histoire des bananes Gros Michel et Cavendish doit rappeler que, lorsque l’on souligne l’importance de la diversité, il ne s’agit pas seulement d’inclure ceux qui étaient auparavant exclus, mais aussi de renforcer les fondations d'une survie à long terme. Autrement dit, un niveau de diversité minimal est toujours nécessaire et ce principe a été un ingrédient essentiel de toute forme de vie complexe : la reproduction sexuée n’est pas seulement un outil pour freiner les mutations, elle garantit également un minimum de diversité génétique puisque chaque parent ne fournit que la moitié de ses propres chromosomes, a priori sélectionnés au hasard.

En tant que communauté, organisation ou population, une culture forte contribue sans aucun doute à accroître l'efficacité, d'autant plus si elle est soutenue par des règles explicites et/ou des outils technologiques. Comme pour la Vie, il semble que plus une organisation présente une forte capacité à contrôler le temps, c'est-à-dire a contrôler l'entropie, plus elle peut s'enorgueillir d’être une forme évoluée. Mais continuer à s'exposer à des « surprises » riches en informations semble critique, et cela ne peut être simplement ponctuel : puisque nous, humains, apprenons très facilement, réintroduire de la diversité doit être un effort constant. Promouvoir l'exposition continue des employés sur leur lieu de travail justifie des initiatives telles que la répartition du temps à 70/20/10 chez Google. Mais ce n’est pas tout: la capacité des « récepteurs » à traiter les messages à forte teneur en information, c'est-à-dire leur capacité à comprendre et à apprendre, doit également être entretenue dans le temps, faute de quoi les efforts de diversité seraient vains. C'est une mise en garde importante alors que nous entrons dans une ère technologique où de plus en plus d'apprentissage sera externalisé vers des machines.


1 Dans Atlas of AI (2021), Kate Crawford décrit comment TrueTime de Google crée un temps « propriétaire » universel qui peut être ajusté pour tenir compte de la latence du réseau


Julius Stratton, Norbert Wiener, Claude Shannon
Source : MIT Museum
We care about your privacy so we do not store nor use any cookie unless it is stricly necessary to make the website to work
Got it
Learn more