
Standardisierte Algorithmen bilden den Energieverbrauch einer komplexen Industrieproduktion nur unzureichend ab. Lastspitzen können sie oft nicht vorhersagen. Das zeigen Forscher vom Fraunhofer IPA in einem jüngst veröffentlichten Paper. Sie empfehlen maßgeschneiderte Datenintegration und Expertenwissen über die Gegebenheiten in der Produktion. Im Paper ‚Predictability of Electrical Loads in Various Domains: An Empirical AIBenchmarking Approach‘, erschienen in der Fachzeitschrift IEEE Xplore, belegt ein Forschungsteam vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA nun: Wer komplexe Industrieprozesse rein datengetrieben und ohne einschlägige Fachkenntnisse automatisieren will, lässt viel Optimierungspotenzial liegen. Die Untersuchung von 80 Datensätzen über zwei Jahre zeigt, dass moderne Deep-Learning-Ansätze zwar mächtig sind, aber ohne maßgeschneiderte Datenintegration oft ihr Ziel verfehlen.
Für ihre Studie unterzog ein Team um Lukas Baur vom Forschungsbereich Energiesysteme und -speicher am Fraunhofer IPA zwölf verschiedene Modellarchitekturen einem systematischen Vergleich. Das zentrale Ergebnis liefert wichtige Kennzahlen für Energiemanager: Während sich der zusammengefasste Strombedarf ganzer Regionen mit einer Fehlerquote von rund 5% sehr präzise vorhersagen lässt, ist die Varianz in der Industrie deutlich höher. Die Fehlerquote liegt hier im Mittel bei 28%. Generische Modelle glätten hier oft genau die Spitzen, die finanziell am meisten schmerzen. Besonders interessant ist der Vergleich zum Gewerbe: Bürokomplexe oder der Handel sind mit 17,5% Fehlerquote deutlich besser prognostizierbar als Industriebetriebe. Das belegt, dass Algorithmen, die für Gewerbeimmobilien funktionieren, nicht eins zu eins auf die stark schwankenden Abläufe in der Fertigungsindustrie übertragbar sind.





