Eléments simples, formes complexes - La quête du continuum numérique

Rédigé par Stéphane BERTHIER
Publié le 04/09/2017

La construction elle-même peut être paramétrée, programmée et exécutée grâce au numérique. Le projet Structural Oscillations est monté par un bras articulé robotisé.

Dossier réalisé par Stéphane BERTHIER
Dossier publié dans le d'A n°256

Une nouvelle génération de chercheurs, architectes, ingénieurs, mathématiciens, explore les possibilités de construction des architectures dites « non standard » qui ont émergé à la fin du XXe siècle avec l’apparition de l’informatique. Après le formalisme virtuel des premières heures, ces universitaires réinterrogent cette production à partir de ses conditions de réalisation. Ils inventent un registre architectural original, tectonique, finalement très différent des Â« blobs » initiaux. 

Leurs travaux s’appuient désormais sur la constitution d’un continuum numérique, de la conception à la fabrication robotique, qui transforme profondément le caractère séquentiel de l’acte de bâtir, fondé classiquement sur les interventions successives de l’architecte, de l’ingénieur puis de l’entreprise. Ces recherches, menées par des équipes pluridisciplinaires, émergent sous la forme d’objets expérimentaux de laboratoire, de prototypes et d’édifices démonstrateurs de ces nouvelles technologies digitales. Elles remettent en question les savoirs, les méthodes et les rôles de l’architecte tels que nous les connaissons. 


L’architecture non standard s’oppose à la notion moderne de série, de répétition industrielle et à la standardisation architecturale qui en découle. Elle regroupe les formes complexes et quelconques au sens géométrique du terme. Ses premiers auteurs (Greg Lynn, Asymptote, NOX, etc.) revendiquaient aussi s’inspirer des découvertes de l’analyse mathématique non standard dans les années 1960, sans qu’il soit toujours possible de faire le lien entre cette théorie et l’étrangeté des formes architecturales considérées. En revanche, elles témoignaient d’une fascination évidente pour les formes organiques du vivant, dont l’imitation devenait aisée grâce aux nouveaux outils informatiques. Comme un premier jalon, l’exposition « Architecture non standard » organisée par le Centre Pompidou en 2004 dressait un inventaire détaillé de cette production encore largement théorique. Identifiées initialement sous le nom de « blob » en raison leurs formes molles et fluides, ces architectures ont évolué très sensiblement ces dernières années, sous l’influence des développements du numérique. Les travaux menés sur les conditions de leur constructibilité ont transformé significativement leurs caractéristiques morphologiques et dessinent désormais une architecture non standard 2.0. 

LE BUG DES BLOBS

 En effet, les premiers blobs furent très vite confrontés à la difficulté de leur construction. Tout d’abord en raison de leur absence d’échelle, puisque ces objets pouvaient être soit des cocons individuels, soit des salles philarmoniques, c’était selon la taille du personnage ajouté à leur représentation. Or nous savons, au moins depuis D’Arcy Thompson1, que les formes du vivant sont déterminées par leur échelle. Il n’y a pas d’homothétie dans la nature, simplement parce que lorsqu’un être grandit, ses dimensions augmentent linéairement tandis que sa surface croît au carré et son volume, donc sa masse, croît au cube. Ainsi, Gulliver n’est que 12 fois plus grand que les Lilliputiens, mais il est 1728 fois plus lourd. Après la question de l’échelle, l’autre écueil résidait dans l’emploi de systèmes constructifs traditionnels inappropriés à la complexité morphologique de ces architectures non standard. Les premières tentatives de discrétisation, c’est-à-dire de décomposition d’une surface complexe en de plus petits éléments pour qu’ils puissent être fabriqués et manipulés, créaient des discontinuités importantes qui altéraient la fluidité des formes imaginées. L’une des deux méthodes les plus communément employées consistait à découper l’objet en tranches, à la manière des maquettes de topographie. Un travail sur l’enveloppe devait ensuite lisser la surface pour en restituer la fluidité. La seconde méthode consistait à décomposer les surfaces courbes en les triangulant pour coller au plus près de la topologie initiale. Dans la plupart des cas de figure, des systèmes constructifs conventionnels aux trames resserrées venaient « faire tenir » ces architectures non standard, sans relation organique ou cohérente entre la structure et la forme, un peu comme un décor de théâtre. 

REDECOUVERTE DES STRUCTURES SPATIALES 

Une première amélioration a été apportée avec la redécouverte des structures spatiales. Ã€ la différence d’une structure traditionnelle fondée sur un système de travées répétitives, plus ou moins espacées, les structures spatiales sont caractérisées par des surfaces continues dont la géométrie définit une portance multidirectionnelle qui répartie les déformations grâce à une meilleure solidarité structurelle. Ainsi des voiles minces en béton de Dischinger, Freyssinet ou Candela, des structures tridimensionnelles de Le Ricolais, des dômes géodésiques de Buckminster Fuller ou encore de la résille de bois de la Halle de Mannheim conçue par Frei Otto en 1976. L’art de l’ingénieur du XXe siècle est riche d’exemples de ce type, un peu tombés dans l’oubli à partir des années 1980. Le pavillon de la Serpentine Gallery de 2005 conçut par Alvaro Siza, Edouardo Souto de Moura et Cecil Balmond est un exemple intéressant de structure spatiale au service d’une forme non standard. Les logiques structurelle et morphologique s’y confondent dans un objet désormais cohérent. Sa projection en plan dessine une grille rectangulaire déformée comme si elle était élastique. La forme qui en résulte est décrite par un réseau de poutres croisées qui définit une surface à double courbure quelconque, mi-coque, mi-tente, dont la flèche garantit la stabilité. Ces mêmes structures spatiales se retrouvent aussi dans les recherches d’Achim Menges à la TU de Stuttgart ou celles d’Yves Weinand à l’EPFL. Ces travaux ont en commun de discrétiser les surfaces complexes selon un motif ou pattern, constitué d’éléments simples, identiques dans leur géométrie, mais dont les dimensions varient pour Ã©pouser de proche en proche la topologie de la surface complexe. Ces éléments simples, constitutifs du motif, peuvent être plans comme les hexagones et pentagones d’un dôme géodésique déformé, ou bien tridimensionnels, comme les voussoirs de la voûte de bois de l’EPFL ou encore décrire des surfaces plissées à la manière des origamis japonais. Mais cette recherche de cohérence entre forme et structure n’aurait pas été possible sans le transfert dans le champ de l’architecture d’outils de conception numérique développés auparavant dans les domaines automobile et aéronautique. En effet, les structures spatiales du XXe siècle que nous évoquions ci-avant étaient principalement fondées sur des formes géométriques régulières, qui pouvaient être dessinées et calculées « à la main ». Elles devaient aussi être construites Ã  partir d’éléments standardisés répétitifs. Le caractère géométriquement quelconque des formes non standard rend leur modélisation et leur réalisation extrêmement laborieuses sans outils numériques. De surcroît, l’informatique donne aussi la possibilité de maîtriser des figures géométriques telles que les courbes de Béziers ou les NURBS (Non Uniform Rational B-Spline), très souvent utilisées pour générer les surfaces gauches, mais qui ne peuvent pas être décrites par la géométrie descriptive conventionnelle. De la même manière, les machines à commandes numériques sur lesquelles sont désormais réalisés ces artefacts singuliers sont assez vieilles. Elles ont été développées dans l’industrie des années 1970 et instauraient la notion de plateforme numérique continue, de la conception à la fabrication. Elles apparaissent aujourd’hui dans le champ de la construction parce qu’elles deviennent utilisables grâce à l’évolution de nos outils de conception et pertinentes pour réaliser les usinages sophistiqués requis par les architectures non standard. Ainsi, le pavillon de la Serpentine Gallery de Siza, Souto de Moura et Balmond est un réseau de poutres croisées en lamibois, toutes singulières, qui ont été découpées sur une fraiseuse numérique à partir de la nomenclature extraite du modèle digital. Soigneusement numérotées, elles ont ensuite été assemblées entre elles comme un kit.

 CONCEPTION PARAMETRIQUE ET FABRICATION NUMERIQUE 

À un premier niveau de complexité, ces outils de conception numérique permettent de paramétrer les modèles 3D de telle sorte que les pièces constitutives de l’objet puissent Ãªtre exportées sous forme de nomenclature à destination des outils de fabrication numérique, telles que les fraiseuses CNC ou les robots. Les liens paramétrés entre la forme générale et les pièces constitutives offrent la possibilité de modifier la nomenclature des pièces à fabriquer automatiquement, lorsque l’architecte modifie la forme générale du modèle 3D. Ces outils peuvent aussi servir à modifier les sections des pièces en fonction des efforts qu’elles subissent, dans un certain intervalle de validité, lui aussi paramétrable. Le fil conducteur de ces recherches est bien la quête d’une plateforme numérique homogène, depuis les logiciels de conception jusqu’aux instructions données aux machines numériques, en passant par les outils de dimensionnement des structures. De la sorte, une modification apportée à la forme générale se répercute en temps réel sur toutes les informations techniques nécessaires à la construction, et réciproquement. Un unique fichier source serait alors capable de contenir toutes les informations, de la conception Ã  la fabrication. Plus encore, le process de construction lui-même, c’est-à-dire l’assemblage de l’édifice, peut désormais être paramétré, programmé, puis exécuté par des robots comme le montrent les travaux récents de Gramazio et Kohler à l’ETH de Zurich. Il faut souligner que les outils de conception paramétrique ne sont pas seulement des moyens de réalisation des blobs initiaux de l’architecture non standard. Il faut plutôt parler d’une rencontre opportune entre deux domaines, l’architecture non standard d’une part et les outils de conception numérique d’autre part, qui se valorisent réciproquement. Ces outils développent depuis quelque temps un langage morphologique propre qui ne repose plus directement sur l’imitation des formes fluides du vivant. Leur logique de discrétisation des surfaces gauches conduit à des expressions architecturales singulières faites d’éléments simples assemblés qui décrivent de manière originale les formes complexes, sans chercher à masquer leur caractère très construit, mais au contraire en l’affirmant. Ils intègrent dès le départ l’impossible continuité de la forme à l’échelle architecturale et l’envisagent donc a priori comme une suite d’éléments discrétisés. L’avantage théorique qu’offre ce continuum numérique, outre d’être un langage commun entre tous les acteurs, est celui de l’efficacité Ã©conomique. Il est presque égal pour le robot d’usiner cent pièces différentes ou cent pièces identiques. Il ne nécessite plus les réglages spécifiques ni les gabarits qu’imposaient les outils industriels lourds du XXe siècle. L’amortissement devient beaucoup plus rapide et la série peut théoriquement commencer Ã  1. C’est ainsi que Jeremy Rifkin a théorisé La nouvelle société du coût marginal zéro, c’est-à-dire la fin de l’industrie de masse et de ses exigences économiques de standardisation. Cette capacité des outils de fabrication numérique rend économiquement acceptable la réalisation de pièces toutes légè rement différentes les unes des autres, issues de la discrétisation des surfaces complexes. Ces machines rendent possible, notamment avec l’utilisation du bois, des assemblages comme des clavetages, des tenons-mortaises, des queues d’aronde, etc., et font l’économie des liaisons mécanosoudés, réputées être les pièces chères d’un devis de charpente. La tendreté du bois, sa capacité à se travailler facilement et sa disponibilité le rendent particulièrement adéquat à cette nouvelle technologie de fabrication digitale. De matériau archaïque au XXe siècle, il devient le matériau phare de ce début de XXIe siècle. 

LES ALGORITHMES GENETIQUES 

À un second niveau de complexité, les outils de conception paramétrique sont capables de générer eux-mêmes la forme architecturale. Ces algorithmes dits « génétiques » sont des codes informatiques qui définissent les critères de la forme et leurs variables, en fonction des règles ou des contraintes que le concepteur se donne. Ces critères sont par exemple d’ordre techniques et relatifs Ã  la statique, la thermique ou l’éclairage, auxquels on assigne des performances à atteindre ; ils peuvent aussi être d’ordre géométrique, fonctionnel, morphologique ou esthétique. Ce code informatique est en outre capable de pondérer ces critères, de les hiérarchiser, voire de les laisser au choix du hasard. Le programme est alors en mesure de déterminer la solution optimisée entre toutes celles possibles, comme un point d’équilibre entre les différents critères de conception, chacun d’entre eux restant dans son intervalle d’acceptabilité. À l’intuition cultivée de l’architecte et son « parti architectural » succéderait alors un calcul informatique d’optimisation entre tous les possibles. La réalité n’est bien entendu pas aussi tranchée. Les algorithmes génétiques sont pour l’instant des aides à la conception, des moyens efficaces de trouver rapidement une solution satisfaisante entre plusieurs contraintes, par exemple entre forme désirée et statique optimisée, mais aussi dans les processus de discrétisation des surfaces, en fonction de la taille et de la forme des éléments selon les contraintes de leur fabrication. D’autre part, c’est toujours un être humain qui écrit l’algorithme, donc qui établit la nature des variables et leurs hiérarchies, qui fixe les règles du jeu. Le projet d’architecture devient alors un modèle numérique dont l’expression morphologique peut se modifier selon les variables codées dont on l’informe. Ce modèle contient théoriquement de multiples états possibles et se présente comme un génotype dont les expressions sont limitées par les intervalles de validité qu’on lui fixe. Par analogie avec la génétique, l’objet ou l’édifice qui est issu de ce génotype peut être considéré comme un phénotype, de la même manière que nous portons en nous un patrimoine génétique complexe contenant de nombreux possibles, dont seuls certains traits s’expriment dans notre phénotype personnel, au gré des hasards du brassage chromosomique. Plus largement, et considérant l’immense tâche de paramétrage que requièrent ces objets numériques, il faudra sans doute les imaginer comme des « modèles souples », non standard au sens propre du terme, capable d’amortir le coût de leur R & D sur plusieurs réalisations, sensiblement différentes pour de multiples raisons de site, de programme, de climat, de performances requises, etc. mais tous fondés sur un même génotype, comme les membres d’une même lignée. Toutefois, si les critiques initiales relatives Ã  l’absence d’échelle comme à l’inconstructibilité des architectures non standard sont désormais levées, celles, d’ordre éthique, qui interrogeaient le bien-fondé d’une démarche perçue comme strictement technophile et formaliste restent entières et sont peut-être plus vives encore. Ces développements scientifiques et techniques doivent être interrogés par les sciences humaines. Comme le fait remarquer Jean-Claude Bignon, cette continuité numérique de toutes les étapes suppose un langage commun, qui, comme tout langage, repose d’abord sur une culture commune. Or les différences de cultures entre tous les acteurs de l’acte de bâtir sont peut-être un frein à la productivité, mais elles sont aussi un terreau favorable à la créativité et à l’enrichissement réciproque. Les reconfigurations profondes que ce nouveau paradigme digital impose, non seulement Ã  l’architecte mais à tous les métiers de la construction, sont-elles un gage de liberté retrouvée, une nouvelle Union des Arts et de l’Industrie après un siècle de standardisation industrielle appauvrissante, ou au contraire, une nouvelle forme d’aliénation des hommes par de nouvelles machines, toujours plus sophistiquées ? 


Lisez la suite de cet article dans : N° 256 - Septembre 2017

Abonnez-vous à D'architectures
.

Réagissez à l’article en remplissant le champ ci-dessous :

Vous n'êtes pas identifié.
SE CONNECTER S'INSCRIRE
.

> L'Agenda

Mars 2024
 LunMarMerJeuVenSamDim
09    01 02 03
1004 05 06 07 08 09 10
1111 12 13 14 15 16 17
1218 19 20 21 22 23 24
1325 26 27 28 29 30 31

> Questions pro

Quelle importance accorder au programme ? [suite]

C’est avec deux architectes aux pratiques forts différentes, Laurent Beaudouin et Marie-José Barthélémy, que nous poursuivons notre enquête sur…

Quelle importance accorder au programme ?

Avant tout projet, la programmation architecturale décrit son contenu afin que maître d’ouvrage et maître d’œuvre en cernent le sens et les en…

L’architecture au prisme des contraintes environnementales : le regard singulier de Gilles Perraud…

Si les questions environnementales sont de plus en plus prégnantes, les labels et les normes propres à l’univers de la construction garantissent…