Skalierbarkeit von BIM Daten:

BIM stößt fortwährend auf Widerstand, da die Implementirung nicht immer einfach ist. Die technische Lösung muss eine große Menge an Daten, die gemeinsam genutzt wird, bequem handhaben.

Da BIM immense Anforderungen an das Datenmanagement stellt, ist der technische Aspekt, der für den Erfolg einer BIM-Implementierung am kritischsten ist, die Datenstrukturierung.

Damit ein BIM-System leistungsfähig und skalierbar ist, muss es ein großes, gemeinsam genutztes, gemischtes Datenvolumen komfortabel handhaben. Es sollte einen Lebenszyklus unterstützen, der von erstellungsintensiv zu überprüfungsintensiv übergeht, und Hunderte von unterschiedlichen, weit entfernten Teilnehmern bedienen.

Wodurch entstehen solche großen Mengen an Daten?

Nehmen wir an, der Standort des Bauprojekts würde analysiert, und die Umwelt-Daten in Echtzeit ausgewertet werden. Alle beteiligten Designer und Ingenieure würden sofort erkennen, ob an diesem Standort die Gefahr einer Bodeninstabilität besteht. Diese Informationen würden auch innerhalb des Models abgebildet werden und wären dort sichtbar. Wie würde man diese Information speichern um einen schnellen Zugriff zu gewährleisten?

“It has been reported that 90% of data had been created in the last two years, and the volume of data we produce is growing by as much as 2.5 quintillion bytes of data every day”

Das Problem großer Datenmengen ist nicht nur eine Challenge in BIM sondern global gesehen in allen möglichen Prozessen. Es ist nicht so, dass uns die Informationen fehlen, und das wir mehr Informationen brauchen, sondern dass sie besser organisiert werden müssen…

Eine Möglichkeit große Datenmengen in BIM umzugehen ist BIM Level 3. Einfach ausgedrückt würde das folgendes bedeuten: Es verwendet ein einziges Modell, das alle Daten in einem zentralen Speicher aufbewahrt, auf den alle Parteien zugreifen und den sie ändern können.

"The issue of how well a system behaves as the data it uses grows in size...

BIM Handbook:

..Some applications operate well only with small datasets. File based systems tend to have file size limitations while systems that use a database tend to be much less dependent on file size. Large and complex models may need to be subdivided to allow reasonable response times for updating.”