Disparues


Numéro 2 - Contingence et perception

Gaëtan Tremblay et François Pichault

Editorial -1993


Résumé
ImprimerImprimer

  Résumé

Ce qui frappe d'emblée, à la lecture de ce numéro, c'est la convergence à la fois théorique et méthodologique des diverses contributions. D'une part, chacune d'elles s'attaque au problème - ô combien difficile - des facteurs susceptibles d'influencer les processus d'innovation technologique, en prenant comme point de départ l'approche contingente. D'autre part, la méthodologie adoptée pour cerner l'influence de ces facteurs s'inspire, dans tous les textes, de la démarche expérimentale.

Convergence théorique

Toute la pensée classique relative à l'organisation (Fayol, Urwick, Taylor) reposait sur un postulat d'universalité des principes de gestion, ces derniers étant censés s'appliquer quelles que soient les conditions concrètes dans lesquelles on se trouve. Un tel postulat a bien sûr été sérieusement remis en question par les théoriciens de l'école de la contingence, qui ont montré combien les organisations peuvent concevoir et développer des modes de structuration spécifiques en vue de s'adapter à leur activité et/ou à leur environnement. En d'autres termes, les organisations sont des systèmes ouverts qui ont besoin d'être soigneusement administrés si on veut répondre aux besoins des membres, les équilibrer, et les adapter au contexte, tant interne qu'externe, et à ses modifications.

Basée sur les travaux de précurseurs - ceux de Burns et Stalker (1961) et de Woodward (1965) - l'approche contingente s'est notamment développée à partir des recherches et écrits de Lawrence et Lorsch (1967), Galbraith (1977), Miles et Snow (1978) et Mintzberg (1982). Pour ces différents auteurs, la cohérence (fit) entre les diverses composantes structurelles et le contexte dans lequel opère l'organisation constitue le premier facteur déterminant le succès.

A cet égard, les recherches de Burns et Stalker (1961) font figure d'œuvre pionnière, dans la mesure où les deux formes extrêmes qu'ils distinguent (la structure mécanique, mieux adaptée à un contexte stable et simple, et la structure organique, plus indiquée dans le cas d'un contexte dynamique et complexe) semblent toujours constituer aujourd'hui la référence obligée des théoriciens du management (voir tableau 1).

Comme le suggèrent Barki, Rivard et Talbot, rien ne s'oppose, a priori, à ce que cette conceptualisation s'applique également à la gestion d'un projet d'informatisation : à un environnement « maîtrisé » (projet de petite envergure, utilisateurs coopératifs, responsables expérimentés, technologie connue), correspondrait un mode de gestion plus formalisé, à caractère mécanique ; par contre, à un environnement « risqué » (projet de grande envergure, conflits d'intérêt, rotation du personnel de développement, technologie nouvelle et complexe) correspondrait un mode gestion plus organique, axé sur la cohésion entre utilisateurs, direction et fournisseurs.

Toutefois, leur étude, ainsi que celle de Bernier, aboutit à la présentation d'un modèle beaucoup plus complexe et nuancé, qui met l'accent sur la perception par les développeurs, d'un côté, et par les utilisateurs, de l'autre, des contraintes dans lesquelles ils opèrent.

Pour Barki, Rivard et Talbot, même si l'environnement organisationnel où les enjeux des utilisateurs semblent constituer des variables contraignantes, force est de constater que les chefs de projet ne les prennent pas en compte dans leur choix des modes de gestion : dans la majorité des cas, ils semblent privilégier la gestion des compétences de l'équipe. Par ailleurs, l'étude menée par les trois auteurs met clairement en avant, après d'autres (Lyytinen et Hirschheim, 1987), le caractère relatif des notions de réussite ou d'échec d'un projet d'informatisation : celles-ci dépendent en effet largement des représentations qu'en ont les différentes catégories d'acteurs impliquées (utilisateurs et responsables de projets).

Quant à Bernier, elle montre, à l'inverse des hypothèses traditionnelles de la théorie de la contingence, qu'un environnement complexe et dynamique semble conduire les responsables des projets étudiés à privilégier un mode de gestion plus serré, basé sur un leadership de compétence et sur la planification étroite des développements informatiques. C'est donc ici aussi leur perception de l'environnement qui est surtout en cause.

De son côté, Ruiz s'interroge sur les pratiques de contrôle des systèmes d'information dans les organisations. Son étude aboutit à montrer que la diversité des formes de contrôle observées correspond en réalité à des degrés divers de maîtrise du système d'information par l'entreprise, depuis le laisser-faire initial jusqu'à l'approche en termes de système de gestion. Autrement dit, le mode de contrôle d'un projet n'est pas le même si on se situe en phase de démarrage ou si l'on a dépassé un certain seuil de « maturité ». Mais ici encore, l'auteur insiste sur le rôle déterminant de ceux qu'il appelle les pilotes opérationnels :

« Les différences relevées dans les pratiques du contrôle des SI semblent davantage s'expliquer par le rôle du responsable opérationnel du système d'information que par des aspects structurels (taille, complexité, etc.) ou organisationnels (règle de contrôle général) »

Enfin, Julien et Raymond portent leur intérêt non plus sur des problèmes de pilotage ou de conduite du système d'information, mais plutôt sur l'aval du processus : à savoir, le phénomène d'adoption des nouvelles technologies dans le secteur des PME. A nouveau, leur raisonnement se fonde sur une approche contingente : les facteurs qui semblent le plus favoriser l'adoption des technologies sont d'ordre environnemental (caractère homogène et standardisé du marché sur lequel on œuvre), structurel (taille critique à atteindre, hiérarchisation complexe, gestion décentralisée) et individuel (dirigeants qualifiés, jeunes, etc.). Mais la relation est loin d'être mécanique et le type d'attitude - ou encore de représentation - caractérisant le responsable d'entreprise s'avère une fois encore décisif : la plus ou moins grande ouverture de ce dernier à l'innovation, la pluralité des objectifs qu'il assigne au changement technologique (à la fois vers l'extérieur et l'intérieur de l'organisation) se révèlent en effet d'une importance cruciale.

Le message est donc clair : l'influence du contexte interne ou externe passe par des représentations d'acteurs. Il est donc nécessaire, comme le propose Weick (1979), de s'attacher à l'analyse approfondie de processus tels que la perception, la conceptualisation ou l'attribution de sens, pour la compréhension des phénomènes organisationnels en général, des processus d'innovation technologique en particulier.

Convergence méthodologique

Le lecteur sera également frappé par le recours à des méthodologies similaires dans chacun des articles, s'inspirant de la démarche expérimentale : énoncé d'hypothèses formalisées, constitution d'échantillons « raisonnés », construction minutieuse d'indicateurs pour les diverses variables utilisées, rédaction de questionnaires fermés, outils statistiques faisant appel à l'analyse discriminante, etc. Sans doute s'agit-il là d'une certaine approche de la réalité des processus d'informatisation, que récusent les partisans d'une démarche plus qualitative, basée sur l'ethnométhodologie, etc. Sans doute de telles méthodes sont-elles plus en vogue dans les milieux de recherche anglo-saxons. Sans doute aussi la proximité observée est-elle en partie due au fait que plusieurs auteurs se connaissent et travaillent ensemble.

Néanmoins, il nous paraît important de souligner la richesse méthodologique des contributions présentées. Chacune d'elles prend la peine d'exposer clairement son arsenal conceptuel et ses outils d'analyse, ce qui permet au lecteur d'apprécier à sa juste valeur la portée des conclusions avancées. Une habitude qui fait peut-être trop souvent défaut, à l'heure actuelle, dans les recherches en sciences sociales consacrées à l'informatisation et qui serait sans nul doute à encourager !

Proposer ce document