Chcesz być na bieżąco? Zapisz się do naszego newslettera


Projektowanie bottom-up

 

Czas czytania: ~8 min


Wraz z rozwojem badań nad inteligencją zbiorową coraz mocniejszą pozycję w świecie architektury zdobywa sobie pogląd, że nadchodzi koniec epoki arbitralnego narzucania przez projektantów form architektonicznych i mamy szansę na pojawienie się tzw. architektury obiektywnej. W tym nowym paradygmacie projektowanie ma polegać na uruchomieniu procesów, które pozwalałyby na kształtowanie formy architektonicznej w sposób oddolny, w pełni dostosowany do aktualnego zadania projektowego, a nie w wyniku stosowania jakiegoś wybranego stylu lub też realizowania indywidualnych preferencji estetycznych.

Generalnie w metodologii projektowania złożonych systemów możliwe są dwie strategie intelektualne. Jedna nazywana jest top-down, a druga bottom-up. Top-down oznacza podchodzenie do danego systemu z zewnątrz, a następnie dzielenie go na mniejsze podsystemy – jest to podejście analityczne, charakterystyczne dla postępowania naśladującego systemy aksjomatyczne. Bottom-up oznacza z kolei proces, który generuje wynik za pomocą prostych, lokalnych zależności między poszczególnymi elementami systemu. Wynik ten może, ale nie musi być skomplikowany. Zwykle jest on jednak dosyć nieprzewidywalny.

Od zaledwie kilku dekad zaczynamy rozumieć, że natura powstaje na zasadzie bottom-up. Jednym z przykładów są geny. Dawkins postuluje, że ich długość nie jest określona odgórnie, lecz zmienna. Stąd proponuje definicję genu jako najmniejszej części materiału chromosomatycznego, która jest w stanie przetrwać proces naturalnej selekcji na tyle długo byśmy byli ją w stanie wyróżnić. Innym przykładem systemu bottom-up są klucze ptaków. Do niedawna panowało przekonanie, że ptaki lecące w kluczu podążają za liderem lub przewodnikiem. Obecnie przypuszcza się jednak, że jedynymi zasadami obecnymi w tym systemie jest potrzeba zachowania odpowiedniej odległości od innych osobników. Każdy z ptaków lecących w kluczu pilnuje więc by nie wpaść na swojego sąsiada a zarazem nie odsunąć się od niego zbyt daleko. Nie ma więc żadnego odgórnego planu. Żaden z ptaków nie wie też, w jaki sposób wygląda cała ich formacja. Kolejny przykład należy do skali mikro. Forma komórek drewna, jak i wielu innych materiałów, jest zależna od ich położenia w całej strukturze. Informacja odnośnie formy całej struktury nie jest jednak nigdzie przechowywana. Wszystko co jest potrzebne by stworzyć działający efektywnie organizm to zestaw odpowiednich zasad sterujących procesem kształtowania się komórki w odpowiedzi na czynniki z zewnątrz. Czynniki te nazywa się czynnikami globalnymi. Zestaw zasad zaś: lokalną inteligencją.
x1naolVWliKAVGnHg9NnJNgLsf3Gi2Sek09pWRBFbYM88AWnYoCf9poNhY1P_bot1.jpg
Przekonanie, że całościowy plan danego systemu można zastąpić zapisywaniem wyłącznie zależności między jego elementami idzie w parze z badaniami Stephena Wolframa nad automatami komórkowymi (cellular automata lub CA). CA to system składający się z komórek o skończonej ilości stanów. Wynik badań Wolframa opisany jest w książce “New Kind of Science”. Dominującą część tej pracy zajmuje analiza jedno-wymiarowych CA w których stan każdej komórki zależny jest od stanu trzech komórek znajdujących się w rzędzie powyżej. Wolfram dużo uwagi poświęca relatywnie prostemu systemowi w którym komórka może być tylko “włączona” lub “wyłączona”. Jej stan można zaś opisać jako 0 lub 1. Przykładowa zasada w takim systemie brzmi: Jeżeli stan komórki powyżej po lewej stronie jest równy 0, a stan komórkek bezpośrednio powyżej i po prawej stronie jest równy 1 to danej komórce należy przypisać stan 1. CA Wolframa wymagają ośmiu takich zasad. Określenie jedno-wymiarowe odnosi się do kierunku, w którym działają zasady. W poniższym przykładzie działają one wyłącznie w dół.
auLhNIdtuKeyw4u99b1agn1qnXmITizhefz0hrErpFuZE903EgZlktKz8cRZ_bot2.jpg
Symulacja architektoniczna

Badania tego typu znajdują zastosowanie także w skali architektonicznej. Alasdair Turner, wykładowca w Urban and Architectural Computing na University College London, prowadzi badania nad symulowaniem sposobu w jaki ludzie poruszają się po budynkach. Wykorzystuje on tzw. “symulacje za pomocą agentów”. Można powiedzieć, że agent jest rodzajem komórki ze wspomnianych powyżej CA Wolframa. Komórka ta w badaniach Turnera ma jednak bardziej skomplikowane właściwości. Praca Turnera oparta jest na teorii Space Syntax, która postuluje możliwość opisania sposobu użytkowania budynków w oparciu o to jaką widoczność mają użytkownicy budynku w każdej jego części. Agent w badaniach Turnera reprezentuje więc jedną osobę, która ma określoną zdolność widzenia i poruszania się po wirtualnym modelu budynku. Korelacja efektów symulacji poruszania się zwiedzających po British Museum z wynikami pomiarów bardziej tradycyjnymi metodami jest bardzo wysoka. Stąd przypuszczenie, że najprawdopodobniej zaproponowana metoda sprawdziłaby się również na innych budynkach. Napisane przez Turnera oprogramowanie Depthmap, które służy do tego typu analizy jest dostępne za darmo na www.vr.ucl.ac.uk/depthmap/. Można je wykorzystywać tylko w celach naukowych.
OmmoJkYyrLW4BZQZFV4HcoGsQGSd9uQ1D83ywNVncp3Ilk6qqqxJ2BolAGVT_bot3.jpg
Bottom-up bez skali i funkcji

Logika bottom-up może być z powodzeniem wykorzystywana do symulacji w skali architektonicznej. Czy może również stać się elementem procesu projektowego? Eksperymentalny tandem z Nowego Jorku - Ben Aranda i Chris Lasch prowadził przez pewnien czas empiryczne badania nad sposobem, w jaki ptaki utrzymują się w kluczu. Śledząc loty gołębi nad Brooklynem Aranda i Lasch mieli nadzieję dokładnie określić zasady kierujące ich ruchem. Niestety okazało się, że zasady te nie są odwracalne. Oznacza to, że patrząc na końcowy stan systemu bardzo trudno jest rozszyfrować zależności, które nim kierują. Prawdopodobnie podobnym niepowodzeniem mogłaby skończyć się próba odgadnięcia zasad sterujących agentami w Depthmap Turnera lub tych określających zależności między komórkami w CA Wolframa. Mimo małego niepowodzenia Aranda i Lasch i tak postanowili zaprojektować proces, w którym forma tworzona jest w myśl logiki bottom-up. “Rules of Six”, pokazywana w Muzeum Sztuki Współczesnej w Nowym Jorku to instalacja wygenerowana za pomocą algorytmu symulującego proces agregacji cząsteczek w skali nanometrów. Podobnie jak przytoczone powyżej naturalne systemy bottom-up oraz CA Wolframa, Rules of Six mogłaby rosnąć w nieskończoność. Algorytm tworzy obiekt o cechach samo-podobnego fraktala. Chris Lasch twierdzi, że obiekt ten można zrealizować zarówno w skali wzornictwa przemysłowego jak i architektury czy urbanistyki.
q1zaQcwGY6uoQnRgxaa81KBs1QHTkDK257cXBax89gAHeg2OgSXBR7d3RF95_bot4.jpg
Aranda i Lasch programują zestaw lokalnych zależności nie będąc w stanie przypuszczać, jaki będzie końcowy stan systemu. Jest to projektowanie bottom-up. Fakt ustalenia zestawu zależności nie jest jednak remedium na wszystkie projektowe problemy. W Rules of Six zestaw zasad kształtujących formę nie uwzględnia wielu czynników, które powinien uwzględniać projekt architektoniczny. Pod uwagę nie są wzięte żadne przesłanki funkcjonalne ani sposób produkcji końcowego stanu systemu. Stąd w skali architektonicznej to podejście nie do końca ma rację bytu.

Architektura bottom-up

Nie oznacza to jednak, że bottom-up nie ma przyszłości w architekturze. Sean Hanna, RCUK Research Fellow in Space and Adaptive Architectures z University College of London, kreśli śmiałe wizje projektowania na zasadach bottom up w skali makro. Już dziś powstają obiekty architektoniczne, których wielkość liczy się w kilometrach raczej niż w metrach. Hanna podaje jako przykłady Kansai Airport pracowni Renzo Piano oraz West Kowloon Canopy projektu Foster and Partners. Innym przykładem może być miasto Masdar także z pracowni Fostera.
DsC2vWkS9KnJvQHmPjyRUZtapl89TL6eZ2Ecln9sCJx0GoVdbrqoYF1nIIrh_bot5.jpg
Ogromna skala tych przedsięwzięć czyni redukcję problemów projektowych niezbędną. Redukcja ta często oznacza z kolei unifikację oraz powielanie odpowiedzi projektowych, co prowadzi z kolei do jednostajnych i niezbyt satysfakcjonujących przestrzeni. Alternatywą jest stworzenie systemu agentów wchodzących ze sobą w interakcję w określonej wirtualnej przestrzeni. Byłby to system podobny pod pewnymi względami do tego w Depthmap Alasdaira Turnera. W tym przypadku pojedynczy agent nie symbolizowałby jednak człowieka, lecz na przykład budynek. Kolejną różnicą byłby fakt, iż każdy agent mógłby wchodzić w interakcję z pozostałymi. Wirtualna przestrzeń, w której zachodzą interakcje między agentami odzwierciedlałaby zaś działkę pod potencjalną inwestycję. W ten sposób uwaga projektantów poświęcona byłaby zasadom określającym relacje między obiektami raczej niż ogólnej formie całego przedsięwzięcia. Elementami tych zasad powinny stać się względy funkcjonalne, konstrukcyjne oraz z pewnością budżet. Taki oddolny system zakończyłby erę dominującego nadal formalnego mimetyzmu natury na rzecz mimetyzmu, ekonomii, logiki i inteligencji procesów naturalnych.

Michał Piasecki
www.michalpiasecki.com

Zobacz tekst o epistemologii ewolucjonistycznej i jej wpływie na tworzenie złożonych systemów myślowych.

Podepnij swój artykuł

tagi

Dom jednorodzinny JRV2 z drewna i betonu ze studia de.materia
Dom jednorodzinny JRV2 z drewna i betonu ze studia de.materia

Projekt architektoniczny tego domu jednorodzinnego zdeterminowało jego położenie: na stoku skarpy, n ...

Budynek jako pomnik
Budynek jako pomnik

Budynek – pomnik, miejsce pamięci połączone z dziełem architektonicznym – to pomysł, który nie jest ...

Mies van der Rohe Award: polskie nominacje
Mies van der Rohe Award: polskie nominacje

EU Prize for Contemporary Architecture - Mies van der Rohe Award – to najważniejsza nagroda architek ...

KOMENTARZE
Komentarze
Brak komentarzy
Zaloguj się, aby dodać komentarz

Nie przegap okazji!!!

zapisz się do naszego newslettera