Springe auf Hauptinhalt Springe auf Hauptmenü Springe auf SiteSearch
Regelenergie für das Elektrizitätsnetz

Geschäftsmodelle fehlen noch

Die Energiewende scheint Gestalt anzunehmen. Prognosen zufolge braucht Deutschland dazu rund 4000km neue Stromtrassen, möglichst viele schnell reagierende Gaskraftwerke als Ersatz für Kernkraftwerke, Pumpspeicherwerke und andere Energiespeicher in der Größenordnung von 30000 Gigawattstunden Speicherkapazität, neue Geschäftsmodelle für Lastverschiebung, Lastvermeidung, Demand Response (preisattraktive Zu- und Abschaltungen von elektrischen Verbrauchern) sowie virtuelle Kraftwerke zur Synchronisation von Stromangebot und Strombedarf. Womöglich lassen sich viele dieser Investitionen vermeiden oder reduzieren, wenn anstatt der von den Energieversorgern anvisierten Top-down-Strategie, bestehend aus dem Ausbau der Netze, Bau von Gaskraftwerken und Speicherwerken, eine Bottom-up-Strategie verfolgt wird, die aus der Verlagerung der Energieerzeugung ins Gebäude und die Nachbarschaft besteht. Ganzheitliche Energiekonzepte für Gemeinden, Stadtteile, Städte und Regionen liegen im Trend, haben jedoch oft ganz unterschiedliche Ziele. Beim 13. Biberacher Forum Gebäudetechnik der Hochschule Biberach im Frühjahr 2012 ging es primär um die künftige Rolle des Gebäudes als Energiekonsument und Energieproduzent, neudeutsch Prosumer, in einem sich rasch wandelnden Energiemarkt.

Höhere Energieeffizienz statt Ausbau der Versorgung

Für Dr. Wolfgang Schneider von der im Jahr 2011 gegründeten Bosch Energy and Building Solution GmbH, Stuttgart, ist die Energiewende gleichbedeutend mit einer Verlagerung des Energiemarktes von der zentralen zur verteilten Erzeugung. Dabei entwickle sich ­eine Struktur auf dem Energiemarkt, bei der die Leistung der konventionellen Kraftwerke sukzessive zurückgefahren und der Anteil der erneuerbaren Energien in gleichem Maße zunehmen werde. Durch den Mix aus zentralen und dezentralen Erzeugerstrukturen mit grundlastgeführten und wetterabhängigen Energieerzeugern entwickeln sich zufallsabhängige Energiesysteme, die das Entstehen komplexer Geschäftsmodelle auf dem Energiemarkt begünstigen. Durch den steigenden Anteil erneuerbarer Energien – bis 2030 sollen es 57 % sein und bis 2050 sogar 80 % – wachse der Druck auf die Netzbetreiber, die bestehenden Netzstrukturen auszubauen und mit „Intelligenz“ zu versehen. Da die Entwicklung auf dem Energiemarkt sehr dynamisch, teilweise unkontrolliert verlaufe, sei es nicht einfach, die notwendigen Maßnahmen zu gewichten. So gäbe es komplexe Abhängigkeiten zwischen dem steigenden Anteil an erneuerbaren Energien, der Notwendigkeit des Netzausbaus und der Kostenstruktur von Energiespeichern. Insbesondere fehle es noch an Geschäftsmodellen, um mit Energiespeichern und intelligenten Stromnetzen nachhaltig Geld zu verdienen.

Typisch für die Situation in Deutschland sei ein vergleichsweise gut ausgebautes Stromnetz mit geringen Speicherkapazitäten, einem abnehmenden Gesamtenergieverbrauch, aber zunehmenden Angebotsspitzen durch die Einspeisung erneuerbarer Energien. Durch ein dezentrales Energiemanagement sowie den Ausbau des konventionellen Stromnetzes zum Smart Grid könnten die fluktuierenden Stromangebote besser genutzt werden.

Ohne monetäre Anreize wird sich nichts bewegen

Ziel künftiger Überlegungen müsse sein, Lastspitzen zu vermeiden bzw. diese intelligent auf Zeiten mit höherem Stromangebot zu verschieben. Dazu müssten monetäre Anreize geschaffen werden, die sowohl den Arbeits- als auch den Leistungspreis einbeziehen. Welche Art von Tarif für welches Gebäude künftig wirtschaftlich ist, hänge vom Lastverschiebepotenzial des Gebäudes, dem Preisvorteil für den jeweiligen Kunden und dessen Bereitschaft ab, Komforteinbußen hinzunehmen oder in gebäudebezogene Speicher zu investieren. Folgende dynamisierte Tarife sind denkbar:

  • <b>Time-of-Use-Tarif:</b> Strompreise variieren je nach Tageszeit, sind jedoch vertraglich mit dem Kunden fixiert.
  • <b>Critical-Peak-Pricing:</b> In Spitzenzeiten Preiserhöhung für ausgewählte Tage; Kunde wird 24 Stunden im Voraus über Spitzenstromtarife informiert, um interne Ma&szlig;nahmen treffen zu können.
  • <b>Real-Time-Pricing:</b> Preis für Strombezug nach Erzeugerleistung und Last im Netz variierend; Kunde wird kurzfristig benachrichtigt.

Die eigentliche Herausforderung dynamisierter Stromtarife liegt darin, Geld zu verdienen. Derzeit werden folgende Geschäftsmodelle diskutiert:

  • <b>Demand Response (DMR):</b> Ein Demand-Response-Operator schlie&szlig;t Verträge mit Gebäude- und Anlagenbetreibern ab, damit ausgewählte elektrische Gro&szlig;verbraucher wie RLT-Anlagen, Wärmepumpen- oder Kälteanlagen auf Anfrage in ihrer Leistungsaufnahme &ndash; gegen Entschädigung &ndash; geregelt werden dürfen. Dabei geht es sowohl um positive wie auch negative Regelenergie, das hei&szlig;t, die Anlagen können auch bei einem Überschuss an Strom aus erneuerbaren Energien vorauseilend &ndash; also prädiktiv&ndash; in Betrieb gehen.
  • <b>Virtual Power Plant (VPP):</b> Ein VPP-Operator koordiniert viele dezentrale Energieerzeuger, zum Beispiel PV-Anlagen, KWK-Anlagen, Biogasanlagen. Dabei handelt es sich um Anlagen, die Stadtwerke, Kontaktoren oder Einzelkunden betreiben, die durch die Aufschaltung einen Tarifvorteil erhalten. Das Geschäftsmodell basiert sowohl auf dem Verkauf von Strom aus den Kundenanlagen an der Leipziger Strombörse zu möglichst hohen Tarifen als auch aus dem Angebot, dem Übertragungsnetzbetreiber positive und negative Regelenergie zur Verfügung zu stellen.

Soweit die Theorie. Dr. Schneider ist realistisch genug, auch auf die Risiken und Unwägbarkeiten solcher Konstrukte einzugehen: „Der Markt ist riesig, aber keiner weiß so richtig, wie er ihn anpacken soll.“ Die Nachhaltigkeit dieser Geschäftsmodelle sei derzeit noch etwas unklar. Das zeige sich unter anderem in der Vielfalt der Unternehmen, die sich derzeit rund um das Thema in Position brächten. Klar sei dagegen, dass durch die Energiewende der Energiemarkt und der Gebäudemarkt über das intelligente Stromnetz zusammenwachsen, so Dr. Schneider.

Die Teilnehmer des Biberacher Forums reagierten äußerst skeptisch auf die geplanten Geschäftsmodelle. Bei anhaltend unkontrollierter Stromeinspeisung aus erneuerbaren Energien sei die Wirtschaftlichkeit solcher Modelle schwer kalkulierbar, da die Abhängigkeiten zu komplex seien. Auch benötigten effiziente Gebäude der nächsten Generation kein dezentrales Energiemanagement, da die Verschiebepotenziale im Gebäude generiert werden könnten. Auch müssten für das Smart Grid zunächst die entsprechenden Kommunikationsstandards definiert werden. Zitat: Wir haben derzeit ein Standard-Wirrwarr, geprägt durch Eon, Miele, Bosch und andere. Eine Vereinfachung sei dringend notwendig.

Zweifel an Wirtschaftlichkeit von Mikro-KWK

Kaum etwas wird so herbeigeredet wie die Geschäftsfelder Mikro-KWK und „Schwarmstrom“ (Bezeichnung eines Energieversorgers für koordinierten BHKW-Betrieb). Diesen Eindruck vermittelte Prof. Dr.-Ing. Clemens Felsmann vom Institut für Energietechnik, Professur für Gebäudeenergietechnik und Wärmeversorgung der TU Dresden. Seine Aussagen basieren auf dem Projekt „Smart Energy Management – Intelligentes Energie- und Speichermanagement in Gebäuden“, bei dem es darum ging, wie ein intelligentes Gebäude mit Eigenstromerzeugung über Kraft-Wärme-Kopplung, PV-Anlage, Wärmepumpe, Kompressionskälteerzeugung sowie Wärme- und Kältespeicher (Wasserspeicher, Baukörper) wirtschaftlich darstellbar ist. Um ein komplexes System wie ein intelligentes Gebäude mit dezentraler Stromerzeugung in den Griff zu bekommen, sei ein Gebäudeautomationssystem unabdingbar. Die Investition setze jedoch eine gewisse Gebäudegröße voraus. Ein KWK-System auf der Basis einer Mikro-KWK im Bereich des Ein- und Mehrfamilienhauses sei deshalb wirtschaftlich kaum darstellbar. Schwachpunkt eines nach dem Bedarf des Strommarktes geführten Betriebes des Mikro-KWKs sei auch die geräteintegrierte intelligente Regelung. Diese können sich gegenüber einer übergeordneten Systemoptimierung bzw. einem Energiemanagement-System recht zickig verhalten, so die Erfahrungen von Prof. Felsmann. Auch fehle es in Haushalten und Gebäuden an Geräten, die sich beliebig zu- und abschalten lassen.

Sehr detailliert ging Prof. Felsmann auf die Schwachstellen der neuen Generation an ­Mikro- und Mini-KWK-Geräten ein. Sein Urteil ist für die Branche wenig schmeichelhaft: „Durch Normen werden BHKW gegenüber der zentralen Stromerzeugung schöngerechnet.“ Ganz konkret analysierte Prof. Felsmann am Beispiel des Mikro-KWK-Gerätes Typ L 4.12 (5–12 kWth, 2–4 kWel) der Kirsch GmbH, Trier, die Schwachstellen dieser Leistungsgröße. So sei der Eigenstromverbrauch der Regelung mit 300W bei weitem zu hoch; bei genauer Bilanzierung der Hilfsenergie käme man sogar auf 435W. Außerdem ziehe das Aggregat rund 14kW Anfahrleistung aus dem Netz. Hinzu kämen hohe Schadstoffspitzen während der Startphase sowie signifikante thermische Schwachstellen – Beleg Thermografie­aufnahmen – im Front- und Seitenbereich des Mikro-KWK-Gerätes. Zusätzlich käme es im Ein-/Ausschaltmodus zu Spannungs- und Frequenzschwankungen, die bei einem massenhaften Einsatz von Mikro-KWK-Geräten Kompensationsmaßnahmen erforderlich machten.

Stirling-Geräte liefern oft erst nach 20 Minuten Strom

Generell müsse bei der Einbindung von Mikro-KWK-Geräten in ein übergeordnetes System die gerätespezifische Trägheit vom Einschaltpunkt bis zur Stromproduktion berücksichtigt werden. Bei Otto-Motoren seien das wenige Minuten, bei Stirling-Motoren stehe die elektrische Leistung oft erst nach 20 Minuten zur Verfügung. Probleme bereite auch die (Zitat) „oft unnötig hohe Regelintelligenz“ der Geräte. Für ein übergeordnetes System seien smarte Regler eine echte Herausforderung. Planern von Mikro-KWK-Anlagen empfiehlt Felsmann, die Energiemanagement-Funktionen schon in der Ausschreibung detailliert festzulegen, sonst sei es fast unmöglich, an die notwendigen Daten des Mikro-KWK-Reglers heranzukommen.

Generell warnt Prof. Felsmann davor, den Prospektangaben der Hersteller blind zu vertrauen. Gerade jetzt in der Markteinführungsphase sei es angebracht, bei den Herstellern gezielt nachzufragen. Zu berücksichtigen sei auch, dass sich die meisten Heizungsfachleute auf ein Fabrikat festgelegt hätten und damit nach Auftragserteilung ein Wechsel zu einem anderen Fabrikat kaum möglich ist. Sein Fazit: Die Wirtschaftlichkeit von Mikro- und Mini-KWK-Geräten ist derzeit kaum nachzuweisen. Wer eine Energieautarkie im Gebäude anstrebe, müsse zudem mit einer steigenden Fehlerhäufigkeit technischen wie auch wirtschaftlichen Ursprungs rechnen. Dies umso stärker, je mehr erneuerbare Energien in die Gesamtanlage eingekoppelt werden.

Monitoring und Controlling gehören zur Gebäudeautomation

Ähnlich wie Prof. Felsmann argumentiert auch Karl-Heinz Belser, Regionalleiter Systeme von der Johnson Controls Systems & Service GmbH, Stuttgart, über die zunehmende Geräte- und Komponenten-Intelligenz bei haus- und gebäudetechnischen Anlagen. „Manche Geräte sind gefährlich intelligent. Gefährlich deshalb, weil sie übergeordnete Regelungs- und Steuerungsinformationen, zum Beispiel Smart-Grid-Funktionen, unzureichend verarbeiten.“ Eine unkoordinierte Anhäufung von smarten Reglern und Geräten könne durchaus kontraproduktiv sein. Belser: „Wir wollen smarte und keine durchgeknallten Gebäude.“ Oft müssten Systemintegratoren alle möglichen Tricks anwenden, um die eingebetteten Regler zu überlisten. Wichtig seien intelligente Stromverbraucher, die optimal mit einem Smart Grid kommunizieren. Nur so lasse sich das viel zitierte Smart Building realisieren.

Eines der wichtigsten Werkzeuge zur Nutzung von Smart-Grid-Funktionen und damit zur Realisierung von Geschäftsmodellen auf der Basis zeit- und lastvariabler Energietarife sei das Gebäudeautomationssystem. Empfehlenswert sei, den Gebäudebetrieb bzw. die Gebäudeenergieeffizienz künftig über ein in das Gebäudeautomationssystem integriertes Energiemonitoring- und Energiecontrolling-System zu überwachen und zu kontrollieren. Externe Systeme seien hierfür eher unwirtschaftlich, da sie auf einer eigenständigen Infrastruktur, oft mit eigenen Protokollen aufbauen. Hier sei eine auf BACnet basierende Datenübertragung die beste Lösung.

Um zeit- und preisvariable Energietarife optimal nutzen zu können, sei es notwendig, dass sich Planer und Betreiber intensiv mit dem Thema Energiespeicher beschäftigen. Nur so könne im Gebäude das notwendige Lastverschiebepotenzial geschaffen werden. Auch der Wettervorhersage-Regelung müsse künftig mehr Beachtung geschenkt werden, um beispielsweise Kälte im Voraus zum Niedrigtarif bereitzustellen oder das Gebäude über dessen bauliche Speicher­masse vorzukühlen. Auch gebäudebezogene Photovol­taik-Anlagen müssten künftig in Speicherkonzepte einbezogen werden, um dem Wildwuchs bei der Einspeisung von solar erzeugtem Strom zu begegnen.

Nach einer Prognose des Marktforschungsinstituts Frost & Sullivan wird es noch etwa bis zum Jahr 2015 dauern, bis die notwendige Normung und Infrastruktur für die Smart-Grid-Integration der Gebäudetechnik auf Systemebene geschaffen ist.

Wirkungsgrade am besten vertraglich festlegen

Lässt sich Energieeffizienz dezidiert planen, anlagentechnisch optimal umsetzen und über dem Lebenszyklus einer Anlage erhalten, wenn nicht sogar verbessern? Alexander Bischel, Leiter Gebäudetechnik, Boehringer Ingelheim Pharma GmbH & Co. KG, Biberach/Riss, konnte diese Frage mit einem uneingeschränkten Ja beantworten. Bischel ist am Standort Biberach für 65 Gebäude mit rund 380000 m2 Nettogeschossfläche verantwortlich. Im letzten Jahr lag der Energieverbrauch des Areals bei 280 Millionen kWh Erdgas und Heizöl sowie 85 Millionen kWh Strom; das entspricht dem Energieverbrauch von 20000 Haushalten. Bei derart vielen Gebäuden, die zudem ganz unterschiedlich genutzt werden, sei ein Energieeffizienzkonzept keinesfalls trivial.

Um den Energieverbrauch langfristig in den Griff zu bekommen, sei ein übergeordneter Ansatz aus baulichen und technischen Maßnahmen in Kombination mit einer GLT-basierten Betriebsweise notwendig. Voraussetzung für eine nachhaltig wirkende Gebäudeenergieeffizienz sei die Systematisierung und Standardisierung der baulichen und technischen Vorgehensweise. So gibt es beispielsweise auf dem Boehringer-Gelände zehn Raumtypen für Produktion, Forschung und Verwaltung. Wichtig sei, so Bischel, Räume, Anlagen und Gebäude per Gebäudeautomationssystem zu überwachen und dessen Systemarchitektur ebenso zu standardisieren. Deshalb seien alle Schaltschränke identisch aufgebaut und mit gleichen speicherprogrammierbaren Steuerungen und derselben Software ausgestattet.

Die überdurchschnittlich hohe Energieeffizienz des Standorts wurde unter anderem durch folgende Maßnahmen erreicht:

  • Alle Lüftungsgeräte sind mit Frequenzumformern ausgestattet,
  • Luftverteilsysteme sind gro&szlig;zügig ausgelegt, um niedrige Strömungsgeschwindigkeiten zu erreichen,
  • Ventilatoren werden nach Bedarf geführt,
  • für alle HLK-Komponenten und -Geräte gibt es vertragliche Vorgaben mit den Herstellern über Mindestwirkungsgrade,
  • ein Bonus-/Malus-System mit den Lieferanten von RLT-Geräten und Anlagenbauern soll Mindestwirkungsgrade garantieren.

Die eigentlichen Einsparpotenziale aber lägen im GLT-gestützten Anlagenbetrieb und einer rigorosen Abschaltpolitik. „Wenn keine Luft gebraucht wird, schalten wir die entsprechenden RLT-Geräte gnadenlos ab, außerhalb der üblichen Betriebszeiten sowieso“, bringt Bischel seine Betreiberstrategie auf den Punkt. In den Laboren sei man dazu übergegangen, die bisher üblichen hohen Luftwechselraten auf die eines Bürogebäudes zu reduzieren, da erfahrungsgemäß in Labors überwiegend Büroarbeiten erledigt werden. Für die eigentlichen Laborversuche werde über eine Präsenztaste der höhere Luftwechsel angefordert. „Diese Maßnahme führte zu extrem hohen Einsparungen, die niemand für möglich gehalten hätte“, so Bischel.

Wichtige Erkenntnisse über künftige Anlagenkonzepte und Betriebsstrategien erhält Bischel aus dem Energiemanagement- und Energiecontrolling-System. „Die früher üblichen Gebäude-Benchmarks waren uns zu wenig aussagefähig. Durch die Vereinheitlichung der HLK-Systeme war es naheliegend, Benchmarks für die einzelnen Lüftungssysteme aufzustellen.“ Nur so schaffe man Transparenz. Auf der Basis dieser Erfahrungen werden bei Boehringer die Systeme weiterentwickelt oder Alternativen gesucht, beispielsweise die Einbindung von Geothermie-Anlagen oder das Speichern und Verschieben von Energie. Dass die rigorose Betriebsführung auch Wirkung zeigt, verdeutlicht die Energieentwicklung von Gebäude H 122: In den Jahren 2006 bis 2011 ging dort der Energieverbrauch von 10,07 Millionen kWh/Jahr auf 6,78 Millionen kWh/Jahr zurück.

Energiemonitoring: Nichts geht über Vor-Ort-Termine

Es ist ein offenes Geheimnis, dass speziell „grüne“ Gebäude im laufenden Betrieb oft nicht die Gebäudeenergieeffizienz aufweisen, auf deren Basis sie ursprünglich berechnet und zertifiziert worden sind. Doch auch Gebäude nach EnEV-Standard sind meist nicht viel besser. Um die Ursachen für die oft starken Abweichungen zu analysieren, wurden in den letzten Jahren verstärkt staatlich geförderte Gebäudemonitoring-Programme etabliert und daraus Betriebsoptimierungen abgeleitet. Prof. Dr.-Ing. Roland Koenigsdorff, Geschäftsführender Leiter des Instituts für Gebäude- und Energiesysteme (IGE) der Hochschule Biberach und Mitinitiator des Biberacher Forums Gebäudetechnik, sieht aufgrund eigener Recherchen und Aktivitäten auf diesem Gebiet einen Trend zu Energiemonitoring und Energiecontrolling. „Die Qualität und Quantität von Projekten mit systematischem Energiemonitoring und Betriebsoptimierung hat deutlich zugenommen“, resümiert Prof. Koenigsdorff. Auch seien am Markt zunehmend kommerzielle Werkzeuge und Dienstleistungen für Monitoring und Controlling verfügbar. Treiber dieser Entwicklung sei einerseits die Forschungsförderung, andererseits motivieren die EnEV, die Green-Building-Zertifizierung sowie das gestiegene Kosten- und Nachhaltigkeitsbewusstsein der Immobilienwirtschaft die Entwicklung zu mehr Transparenz bei Energieeffizienz und Energiekosten. Allerdings fehle es am Markt an anwendungsbezogenen Standards für Messkonzepte und Messtechnik sowie für die Datenerfassung und Archivierung.

Nach wie vor sei der Aufwand für die Ursachenfindung bei ineffizient arbeitenden HLK-Anlagen groß, aber es lohne sich, da die Einsparpotenziale oft signifikant seien, sagt Prof. Koenigsdorff. Interessant ist die Erkenntnis, dass sich insbesondere Niedrigenergie- und Niedrigexergiegebäude recht sensibel gegenüber den Betriebs-Randbedingungen verhalten. Schon geringe Abweichungen von den geplanten Temperaturdifferenzen zwischen Heiz- und Kühlsystemen und dem Raum sowie in den Heiz- und Kühlsystemen selbst (Spreizung) wirken sich auf die Massenströme und damit auf den Hilfsenergieanteil negativ aus. Pumpenstromanteile von 13 bis 18 % am Gesamtstromverbrauch eines Gebäudes seien keine Seltenheit. Typisch für viele Niedrig(st)-Energiegebäude seien hochwertige Heiz-/Kühlanforderungen sowie eine komplexe Anlagentechnik mit Energiespeichern, die nur über eine anspruchsvolle Automatisierung beherrschbar seien. Entsprechend aufwendig sei das Monitoring in solchen Gebäuden, da wegen der geringen Temperaturdifferenzen bei den Heiz- und Kühlmedien eine besonders hohe Messgenauigkeit und ein durchgängiges Messkonzept nötig seien. Schon bei der Ausschreibung von Projekten müsse der Planer exakt definieren, welche Qualitätsanforderungen an Wärmezähler, Messfühler, das Messkonzept und die Datendokumentation gestellt werden.

Doch auch wenn alles richtig gemacht und die Daten vollautomatisch erfasst werden, sei im Rahmen des Energiemonitorings die Begehung der Anlage unbedingt notwendig, so Koenigsdorff. Nur so könnten beispielsweise falsche Ventilstellungen oder fehlerhaft montierte Sensoren erkannt werden. Für neue Gebäude empfiehlt Prof. Koenigsdorff die Formel KISS, keep it simple and stupid, denn einfache und robuste Konzepte arbeiten exakter als komplexe und übertechnisierte. Was an technischen Einrichtungen nicht gebraucht und nicht installiert werde, müsse auch nicht gewartet werden. In vielen Fällen könne man auch Technik durch mehr Dämmung ersetzen, jedoch sei auch hier das richtige Augenmaß erforderlich.

Mit Gebäudeautomation HLK-Anlagen optimieren

„Das Gebäudeautomationssystem ist ein ideales Werkzeug nicht nur zum Betreiben von gebäudetechnischen Anlagen, sondern auch zur Optimierung.“ Aus Sicht von Prof. Dr.-Ing. Martin Becker, Prodekan Fakultät Architektur, Gebäudeklimatik und Energiesysteme der Hochschule Biberach, kann die Qualität einer Liegenschaft durch die Aufrüstung der Gebäudeautomation mit Energiemonitoring- und Energiecontrolling-Funktionen nachhaltig gesteigert werden. Künftig müssten jedoch neben der angestammten Anlagentechnik mit Energieversorgung und Energieerzeugung sowie dem Gebäude- und Anlagenbetrieb auch die Gebäudehülle inklusive Fassadentechnik in eine ganzheitliche Strategie einbezogen werden, da die Wechselwirkungen der Gebäudesysteme signifikant seien. „Die Raum- und Fassadenautomation sind künftig neue Teilgebiete der Gebäudeautomation“, sagt Prof. Becker und weiter, „der Wert einer Immobilie wird künftig nach deren Nachhaltigkeitsmaß beurteilt. Für die Immobilienwirtschaft spielen Effizienz, Energiekosten sowie Komfort eine immer größere Rolle.“ Die systematische Erfassung der Energiedaten sei eine wichtige Zukunftsaufgabe. Deshalb sehe er in der ganzheitlichen Beurteilung von Gebäude- und Energiesystemen eine wichtige Aufgabe für sein Institut.

So belegen Messkampagnen am Technikum der Hochschule Biberach zum Thema Gebäudeautomations-Effizienzklassen, dass hocheffiziente Automationssysteme der Klasse A gegenüber Standardsystemen der Klasse C rund 20 % an Energie einsparen. Eine andere Messreihe der Hochschule mit automatisierten Beleuchtungssystemen machte deutlich, dass automatische Dimmer nicht immer die Zustimmung der Nutzer finden. Am deutlichsten seien die Einsparungen durch die Automation von Beleuchtungen in öffentlichen Gebäuden, da diese Nutzergruppe weniger motiviert sei, mit Energie sparsam umzugehen. Alle Untersuchungen belegen, so Becker, dass für einen optimierten Gebäudebetrieb ein kontinuierliches Energiemonitoring unverzichtbar ist.

Fazit

Die Systemgrenzen gebäudetechnischer Anlagen heutigen Zuschnitts liegen meist bei den Gewerkegrenzen. Mit Einführung des intelligenten Stromnetzes verschieben sich diese Bereiche so, dass Gebäudetechnik und Energietechnik nach und nach zusammenwachsen. Marktforscher gehen davon aus, dass dadurch die Innovationszyklen gebäudetechnischer Anlagen kürzer werden und empfehlen bei Neuplanungen Platzreserven für Energiespeicher oder Kraft-Wärme-Kopplung vorzusehen. Regelungsfachleute warnen bereits heute vor zu viel Geräteintelligenz, die sich negativ auf übergeordnete ­Regelungs- und Steuerungsstrategien zur Nutzung unterschiedlicher Tarifangebote auswirken kann. Zunächst gilt es jedoch, die geplante Energieeffizienz von gebäudetechnischen Anlagen auch im Betrieb zu erreichen. Monitoring und Betriebsoptimierung werden bereits als künftiger Standard gehandelt. Ob Mikro- und Mini-KWK-Geräte eine sinnvolle und wirtschaftliche Lösung sind, muss die Praxis zeigen. Auch hier wird ein Monitoring Daten zur Beurteilung der Wirtschaftlichkeit liefern.

INFO

Wie viel Automatisierung verkraftet der Mensch?

Das Prinzip „alles automatisch“ kann schnell zum Rohrkrepierer werden, wenn der Anbieter von Gebäude- und Raumautomationssystemen die Kulturgeschichte des Bedienelements „Schalter“ oder die Abläufe der menschlichen Urhandlung „Feuermachen“ ­ignoriert. Mario Stoll, Diplom-Ingenieur, Diplom-Psychologe und Geschäftsführer der Firma Intelli-x in Leipzig warnt vor abstrakten Bedienoberflächen, die dem Nutzer nicht signalisieren, was als nächstes passiert. Automatisierung bedeute für den Nutzer in vielen Fällen Kontrollverlust über einen Vorgang, der zu analogen Zeiten noch transparent und nachvollziehbar war. Klassisches Beispiel sei das Ein- und Ausschalten eines Gerätes per mechanischem Schalter. Das Problem vieler innovativer Branchen sei, dass Techniker die Bedienprobleme mit Technik lösen. Dabei zeige die Praxis, dass die von Ingenieuren und Informatikern für gut befundenen Bedienoberflächen nicht ausreichten, Dinge wirklich benutzerfreundlich zu gestalten. Deutlich werde dies, wenn das Standpersonal eines Unternehmens oder eines Verbandes bei einer Präsentation nicht in der Lage ist, die neuesten Produkte, beispielsweise die hinterlegten Features einer „Homeautomation“, den Besuchern vorzuführen, wie es kürzlich bei der Sonderschau „E-Haus“ des Zentralverbandes der Deutschen Elektro- und Informationstechnischen Handwerke (ZVEH) passierte. „So eine Situation ist für ein Produkt oder ein System eine wirtschaftliche Katastrophe“, sagt Stoll. Wichtig sei, dass der Nutzer die Funktionen eines Gerätes bewusst wahrnehmen könne, möglichst auch haptisch in der Art eines Schalters oder Einstellrades. Touch-Panels seien beispielsweise haptisch nur bedingt wahrnehmbar und damit nicht für jeden Nutzer geeignet. Allerdings gäbe es heute bei einem größer werdenden Personenkreis ein gewisses Vorwissen im Umgang mit Tablet-Computern. Wer auf intuitive Bedienung über Touch-Panel setze, müsse einkalkulieren, dass eine gewisse Klientel so ein Gerät nach dem Urlaub nicht mehr bedienen kann. Bei vielen Leuten werde dadurch das Selbstwertgefühl verletzt, besonders wenn andere Personen Zeugen des Versagens sind. Vielfach helfe es, wenn auf dem Touch-Screen die allseits bekannten Schalter abgebildet werden, möglichst mit dem entsprechenden Geräusch hinterlegt, so Stoll. Wichtig sei, dass dem Nutzer auch die Reaktion auf seinen Schaltbefehl vermittelt werde, denn durch dieses Feedback fühle sich der Nutzer verstanden. Dass intelligente Stromzähler – Smart Meter – vielfach von der Bevölkerung abgelehnt werden, läge auch an der Bedienoberfläche der Geräte. Stoll: „Viele Funktionen sind für den Nutzer nicht wahrnehmbar. Deshalb werden solche Geräte häufig nicht akzeptiert, ja sogar ignoriert, betont Stoll.

Autor

Wolfgang Schmid ist Fachjournalist für Technische Gebäudeausrüstung, 80751 München, wsm@tele2.de

Tags