Refine
Document Type
- Article (8)
- Conference Proceeding (8)
- Book (4)
- Part of a Book (1)
- Doctoral Thesis (1)
- Part of Periodical (1)
Has Fulltext
- no (23) (remove)
Keywords
- Future Skills (2)
- Inverted Classroom (2)
- Power Consumption (2)
- Scrum (2)
- Agile Lehre (1)
- Computer-Human Interaction (1)
- Delphi-Studie (1)
- Digital (1)
- Dokumentation (1)
- Embedded Software Engineering (1)
Institute
- Fakultät IuI (23) (remove)
The present study gives an overview of recent investigations dealing with the fatigue behaviour of the tempered martensitic steel 50CrMo4 (Fe-0.5wt%C-1wt%Cr) in the HCF and VHCF regime by taking into account a variation in material strength, by modifying the heat treatment parameters. The parameters for the tempering treatment were adapted to receive two material conditions with 37HRC and 57HRC, respectively. Subsequently, fatigue specimens were machined from the heat-treated bars for fatigue tests in an ultrasonic (f=20000Hz) and a resonance (f=95Hz) fatigue testing machine under fully reversed loading (R=-1) at laboratory air atmosphere. It was found that the dominant fatigue and fracture mechanisms change with increasing material strength. For 37HRC moderate-strength specimens crack initiation was shown to occur on the specimen surface within Cr depleted bands (segregation bands) as the dominant fatigue damage mechanism. Contrary to that, only internal crack initiation at non-metallic inclusions was observed for the high strength 57HRC condition. Furthermore, the completely different crack initiation mechanisms of the two heat treatment conditions were assessed by applying the Murakami approach relating the fatigue limit with the size of non-metallic inclusions.
Aufgrund der zunehmenden Überdüngung landwirtschaftlicher Flächen durch Wirtschaftsdünger und Gärreste aus Biogasanlagen wird eine ökonomische und ökologische Vollaufbereitungstechnik zur Separation der Nährstoffe und zur Gewinnung von Prozesswasser aus Gärresten und Güllen benötigt. Das Vollaufbereitungsverfahren zur Düngemittelrückgewinnung durch mehrstufige Fest-/ Flüssigtrennung und Membrantechnik könnte diese Anforderungen durch eine intensive Optimierung der Ultrafiltrationsstufe erfüllen. Das Ziel der vorliegenden Arbeit ist die Reduktion des Energiebedarfes der Ultrafiltrationsstufe um 50 %, da diese Prozessstufe ca. 50 – 70 % des Gesamtenergiebedarfes ausmacht. Damit wäre ein wirtschaftliches Vollaufbereitungsverfahren flächendeckend einsetzbar.
Für die Optimierung der Ultrafiltrationsstufe wurden Gärreste aus 19 Biogasanlagen in einem Stichprobenumfang von 42 Proben auf ihre physikalisch/chemischen Parameter und insbesondere das separierte Zentrat auf dessen Filtrierbarkeit in einer UF-Rührzelle untersucht. Im Allgemeinen zeigte sich eine hohe Schwankungsbreite der erzielbaren Permeatflüsse. Funktionelle Zusammenhänge wurden zwischen den organischen Inhaltsstoffen, der scheinbaren Viskosität der Zentrate und dem Ultrafiltrationsfluss gefunden. Gärrestzentrate weisen ein Nicht-Newtonsches rheologisches Fließverhalten auf. Hauptsächlich Biopolymere, darunter Polysaccharide und Proteine, sind sowohl für die erzielbare Flussleistung, als auch für das rheologische Verhalten relevant. Modifikation und Verringerung dieser kritischen Biopolymerfraktion bieten damit einen möglichen Optimierungsansatz, der in der Arbeit durch Ozonierung und Komplexbildung durch pH-Wert-Verschiebung realisiert wurde. Die Optimierung der Ultrafiltration wurde in drei verschiedenen Maßstäben untersucht: Labor-, Technikums- und Pilotmaßstab. Die Ozonierung zeigte dabei positive Eigenschaften in Bezug auf Flussverbesserungen und Abbau der Strukturviskosität. Durch die Modifikation und Verkleinerung der Biopolymere wurde in allen drei Maßstäben eine Flussverbesserung um den Faktor 1,4 – 2,3 erzielt.
Durch die Ansäuerung der Zentrate zu pH-Werten unterhalb der isoelektrischen Punkte der Proteine wurde eine Komplexbildung der Biopolymere erreicht, die bisher nur für Modellsysteme in der Literatur dargestellt wurde. Durch die Vergrößerung der Partikel um den Faktor 7 – 17 bei der Komplexierung wurde in allen drei Versuchsmaßstäben eine Verbesserung der Flussleistung um ca. Faktor 2 erzielt.
Die Temperaturerhöhung wurde in Rohrmodulen im Technikums- und Pilotmaßstab untersucht. Dabei zeigte sich bei einer Temperaturerhöhung von 40 – 45 °C auf 60 – 75 °C eine Verbesserung der Flussleistung um den Faktor 1,4, die auf die sinkende Permeatviskosität und eine verbesserte Deckschichtkontrolle zurückgeführt wurde. Die Kombination aus Ozonierung und hoher Prozesstemperatur zeigte synergetische Ergebnisse, da sowohl durch die hohe Prozesstemperatur, als auch durch die Ozonierung die Zentratviskosität herabgesetzt wurde. Dadurch wurde die Reynoldszahl im Rohrmodul erhöht, was einen positiven Einfluss auf die Filtrierbarkeit zeigte. Durch die erhöhte Reynoldszahl bestand die Möglichkeit, die Strömungsgeschwindigkeit im Ultrafiltrationsloop zu verringern, was einen wesentlichen Einfluss auf den Energiebedarf der Ultrafiltrationsstufe hat. Im Rahmen der Untersuchungen wurde eine sehr gute Übertragbarkeit zwischen den Ergebnissen der verschiedenen Maßstäbe festgestellt. Die Ergebnisse des Labormaßstabes erlauben eine Vorhersage der Membranflüsse auf großtechnische Ultrafiltrationsanlagen. Trotz der hohen Diversität der beprobten Anlagen ermöglichten die Ergebnisse aufgrund des hohen Stichprobenumfanges mathematische Zusammenhänge zwischen den Biopolymeren und der temperaturabhängigen scheinbaren und temperaturabhängigen Viskosität von Gärrestzentraten.
Bei der energetischen Bilanzierung der Ultrafiltrationsanlage wurden an beiden Standorten in Summe sechs Verfahrensmodifikationen gefunden, die eine Reduktion des Energiebedarfes um ≥ 50 % ermöglichen. Diese Projektzielstellung wurde durch eine hohe Prozesstemperatur bei gleichzeitig reduzierter Überströmungsgeschwindigkeit, Ozonierung bei gleichzeitig hoher Prozesstemperatur und durch die Ansäuerung erreicht. Der niedrigste Energiebedarf wurde durch die Ozonierung bei gleichzeitig hoher Prozesstemperatur und reduzierter Überströmungsgeschwindigkeit erreicht. Der Energiebedarf wurde bei dieser Verfahrensmodifikation um 54 – 59 % reduziert.
In einer abschließenden Wirtschaftlichkeitsbetrachtung einer 50000 t∙a-1 Anlage an einem deutschen Standort wurde durch die KWK geförderte Wärmenutzung der wirtschaftlichste Fall für eine hohe Prozesstemperatur bei gleichzeitig reduzierter Überströmungsgeschwindigkeit festgestellt. Die spezifischen Gesamtkosten des volltechnischen Verfahrens wurden von 8 – 8,50 € pro Kubikmeter aufbereitetem Gärrest auf 5 – 5,50 € um 33,5 – 37,8 % reduziert. Nach Angaben der kooperierenden Firma ist damit ein wirtschaftlicher Anlagenbetrieb möglich.
Biogas plants produce nutrient rich digestates as side products, which are usually used as local fertilisers. Yet the large amount and regional gradients of biogas plants in Germany necessitate management, conditioning, and transportation of digestates, in order to follow good fertilising procedure and prohibit local over-fertilisation. With a membrane-based treatment chain, i.e. centrifugation, ultrafiltration, and reverse osmosis, digestates can be separated into a solid N,P-fertiliser, a liquid N,K-fertiliser, and dischargeable water. Up to now, the high energy demand of the process chain, in particular the ultrafiltration step, limits the economical market launch of the treatment chain. A reduction of the energy demand is challenging, as digestates exhibit a high fouling potential and ultrafiltration fluxes differ considerably for digestates from different biogas plants. In a systematic screening of 28 digestate samples from agricultural biogas plants and 6 samples from bio-waste biogas plants, ultrafiltration performance could be successfully linked to the rheological properties of the digestate’s liquid phase and to its macromolecular biopolymer concentration. By modification of the fluid characteristics through enzymatic treatment, ultrafiltration performance was considerably increased by factor 2.8 on average, which equals energy savings in the ultrafiltration step of approximately 45%. Consequently, the energy demand of the total treatment chain decreases, which offers potential for further rollout of the membrane-based digestate treatment.
Optimised Nutrient Recovery from Biogas Digestate by Solid/Liquid Separation and Membrane Treatment
(2019)
Anaerobic digestion products of agricultural biogas plants are characterised by high nitrogen, phosphorus, and potassium content. In three scale-up steps, a membrane based digestate treatment process of solid-liquid-separation, ultrafiltration, and reverse osmosis for nutrient recovery was investigated. Lab-scale trials delivered a very good understanding of fluid properties and subsequent ultrafiltration performance, which is the limiting process step in terms of energy demand and operation costs. In semi-technical experiments, optimisation, and design parameters were developed, which were subsequently applied to pilot-scale tests at two full-scale biogas plants. The process optimisation resulted in 50 % energy reduction of the ultrafiltration step. About 36 % of the sludge volume was recovered as dischargeable water, 20 % as solid N/P-fertiliser, and 44 % as liquid N/K-fertiliser.
The usage of high-level synthesis (HLS) tools for FPGAs has increased significantly over the last years since they matured and allow software programmers to take advantage of reconfigurable hardware technology.
Most HLS tools employ methods to optimize for loops, e. g. by unrolling or pipelining them. But there is hardly any work on the optimization of while loops. This comes at no surprise since most while loops have loop-carried dependences involving the loop condition which result in large recurrence cycles in the dataflow graphs. Therefore typical while loops cannot be parallelized or pipelined.
We propose a novel transformation which allows to optimize while loops nested within a for loop. By interchanging the two loops, it is possible to pipeline (and thereby parallelize) the inner loop, resulting in a reduced execution time. We present two case studies on different hardware platforms and show the speedup factors - compared to a host processor and to an unoptimized hardware implementation - achieved by our while loop optimization method.
A recently published study of high temperature nitridation of iron chromium aluminum alloys (FeCrAl) at 900°C in N2–H2 has redundantly shown the formation of locally confined corrosion pockets reaching several microns into the alloy. These nitrided pockets form underneath chromia islands laterally surrounded by the otherwise protective alumina scale. Chromia renders a nitrogen‐permeable defect under the given conditions and the presence of aluminum in the alloy. In light of these findings on FeCrAl, a focused ion beam–scanning electron microscope tomography study has been undertaken on an equally nitrided FeNiCrAl sample to characterize its nitridation corrosion features chemically and morphologically. The alloy is strengthened by a high number of chromium carbide precipitates, which are also preferential chromia formation sites. Besides the confirmation of the complete encapsulation of the corrosion pocket from the alloy by a closed and dense aluminum nitride rim, very large voids have been found in the said pockets. Furthermore, metallic particles comprising nickel and iron are deposited on top of the outer oxide scale above such void regions.
Der Beitrag beschreibt die Entwicklung eines Inverted Classroom Konzeptes für ein Informatik-Grundlagenfach an einer Hochschule. Basierend auf Vorlesungsaufzeichnungen und Vorlesungsskript wurde hierbei besonderes Augenmerk auf die Gestaltung der gemeinsamen Präsenzzeit zwischen Studierenden und Lehrenden gelegt. Durch zahlreiche aktivierende Elemente sind die Studierenden hierbei gefordert, ihren Lernprozess selbst zu gestalten, um somit über die fachlichen Kompetenzen des Faches hinaus auch überfachliche Kompetenzen, wie beispielsweise Kommunikations- und Kooperationskompetenz, Selbstlernkompetenz und Eigenverantwortung zu trainieren.
Der Einsatz paralleler Hardware-Architekturen betrifft alle Software-Entwickler und -Entwicklerinnen: vom Supercomputer bis zum eingebetteten System werden Multi- und Manycore-Systeme inzwischen eingesetzt. Die Herausforderungen an das Software Engineering sind vielfältig. Zum einen ist (wieder) ein stärkeres Verständnis für die Hardware notwendig. Ohne eine skalierbare Partitionierung der Software und parallele Algorithmen bleibt die Rechenleistung ungenutzt. Zum anderen stehen neue Programmiersprachen im Vordergrund, die die Ausführung von parallelen Anweisungen ermöglichen.
Dieses Buch betrachtet unterschiedliche Aspekte bei der Entwicklung paralleler Systeme und berücksichtigt dabei auch eingebettete Systeme. Es verbindet Theorie und praktische Anwendung und ist somit für Studierende und Anwender in der Praxis gleichermaßen geeignet. Durch die programmiersprachenunabhängige Darstellung der Algorithmen können sie leicht für die eigene Anwendung angepasst werden. Viele praktische Projekte erleichtern das Selbststudium und vertiefen das Gelernte.
Various overoxidized poly(1H-pyrrole) (PPy), poly(N-methylpyrrole) (PMePy) or poly(3,4-ethylenedioxythiophene) (PEDOT) membranes incorporated into an acrylate-based solid polymer electrolyte matrix (SPE) were directly electrosynthesized by a two-step in situ procedure. The aim was to extend and improve fundamental properties of pure SPE materials. The polymer matrix is based on the cross-linking of glycerol propoxylate (1PO/OH) triacrylate (GPTA) with poly(ethylene glycol) diacrylate (PEGDA) and lithium bis(trifluoromethanesulfonyl)imide (LiTFSI) as a conducting salt. A self-standing and flexible polymer electrolyte film is formed during the UV-induced photopolymerization of the acrylate precursors, followed by an electrochemical polymerization of the conducting polymers to form a 3D-IPN. The electrical conductivity of the conducting polymer is destroyed by electrochemical overoxidation in order to convert the conducting polymer into an ion-exchange membrane by introduction of electron-rich groups onto polymer units. The resulting polymer films were characterized by scanning electron microscopy, cyclic voltammetry, electrochemical impedance spectroscopy, differential scanning calorimetry, thermal analysis and infrared spectroscopy. The results of this study show that the combination of a polyacrylate-matrix with ion selective properties of overoxidized CPs leads to new 3D materials with higher ionic conductivity than SPEs and separator or selective ion-exchange membrane properties with good stability by facile fabrication.
With the increasing size and complexity of embedded systems, the impact of software on energy consumption is becoming more important. Previous research focused mainly on energy optimization at the hardware level. However, little research has been carried out regarding energy optimization at the software design level. This paper focuses on the software design level and addresses the gap between software and hardware design for embedded systems. This is achieved by proposing a framework for software design patterns, which takes aspects of power consumption and time behavior of the hardware level into account. We evaluate the expressiveness of the framework by applying it to well-known and novel design patterns. Furthermore, we introduce a dimensionless numerical efficiency factor to make possible energy savings quantifiable.
The objective of this review is a global assessment of the economics of second‐generation biorefineries, with a focus on the use of food waste and agricultural residues for chemical production by applying biotechnological processes. Analyses are conducted on feedstock and product distribution, applied economic models, and profitability figures for the period 2013–2018. In a study of 163 articles on different biorefinery systems, the production of chemicals is identified as the second major product class, after bioenergy. Bagasse and straw are frequently analyzed second‐generation feedstocks. Based on the evaluation of 22 articles, second‐generation biorefineries producing chemicals by applying biotechnological processes proves to be economically feasible. On average, both the internal rate of return (IRR) and the return on investment (ROI) are 20% and the payback period (PP) is 6 years. The cost share of feedstock in biorefineries is between 0–50%. The price of the end product and the fermentation yields have the most impact on profitability. The processing of food waste that has industrial and municipal origins appears more economical than the processing of agricultural residues. Scientists, policy makers and entrepreneurs with an appropriate risk tolerance are advised to pay particular attention to municipal food waste and the potential economic production of carboxylic acids. For various economic issues related to biorefineries, dynamic‐deterministic models are recommended, which can be extended by a stochastic model. This review provides an initial overview of the economic feasibility of second‐generation biorefineries. Further techno‐economic analyses are required to produce statistically significant statements on key profitability figures. © 2020 The Authors. Biofuels, Bioproducts, and Biorefining published by Society of Chemical Industry and John Wiley & Sons, Ltd.
Hintergrund Die physiotherapeutische Dokumentation spielt im Therapieprozess eine wichtige Rolle, erfolgt jedoch auf unterschiedlichste Weise. Es existieren derzeit eine Vielzahl von Softwarelösungen für die physiotherapeutische Dokumentation, welche sich jedoch in ihren Funktionalitäten stark unterscheiden. Ziel Mithilfe einer Befragung soll ein Konsens von Expertenaus der Physiotherapie im Themengebiet der softwarebasierten Dokumentation ermittelt werden. Anhand der Ergebnisse wird ein Anforderungskatalog für die Entwicklung einer neuartigen und benutzerorientierten Dokumentationssoftware erstellt. Methode Online-Delphi-Befragung mit neun Experten über drei Befragungswellen.
Ergebnisse Hinsichtlich der Anforderungen an die Anamnese konnte ein Konsens erzielt werden. Bei der Gliederung des Befundes kam es zu keiner Übereinstimmung der Experten. Das Ergebnis lässt sich durch unterschiedliche manualtherapeutische Konzepte erklären, die für die Befunderhebung verwendet wurden. Schlussfolgerung Eine softwarebasierte Dokumentation sollte standardisierter als bisher erfolgen, um den ClinicalReasoning-Prozess zu unterstützten. Gleichzeitig ist dabei eine gewisse Flexibilität geboten. Die gesammelten Anforderungen können für die Entwicklung einer neuartigen und benutzerorientierten mobilen Anwendung zur Effizienzsteigerung in der physiotherapeutischen Dokumentation verwendet werden.
The effects of reaction parameters on Hurn:xwiley:23670932:media:cptc202000216:cptc202000216-math-0001 production from ethanol photocatalysis in the gas phase have been investigated. The photocatalytic activity evolves from an early mass‐transfer limited regime to an independent one at later irradiation times, which is interpreted in terms of a photocatalytic site activity distribution. Ethanol molar fraction exhibits two different domains, with Hurn:xwiley:23670932:media:cptc202000216:cptc202000216-math-0002 production increasing up to a molar fraction of 0.12, beyond which it plateaus. Hurn:xwiley:23670932:media:cptc202000216:cptc202000216-math-0003 :AcH ratios are very sensitive to reaction conditions, reaching 1.8 at low reactant flows. UV light is converted to Hurn:x-wiley:23670932:media:cptc202000216:cptc202000216-math-0004 with an efficiency of nearly 3 %.
Due to the resource-constrained nature of embedded systems, it is crucial to support the estimation of their power consumption as early in the development process as possible. Non-functional requirements based on power consumption directly impact the software design, e.g., watt-hour thresholds and expected lifetimes based on battery capacities. Even if software affects hardware behavior directly, these types of requirements are often overlooked by software developers because they are commonly associated with the hardware layer. Modern trends in software engineering such as Model-Driven Development (MDD) can be used in embedded software development to evaluate power consumption-based requirements in early design phases. However, power consumption aspects are currently not sufficiently considered in MDD approaches. In this paper, we present a model-driven approach using Unified Modeling Language profile extensions to model hardware components and their power characteristics. Software m odels are combined with hardware models to achieve a system-wide estimation, including peripheral devices, and to make the power-related impact in early design stages visible. By deriving energy profiles, we provide software developers with valuable feedback, which may be used to identify energy bugs and evaluate power consumption-related requirements. To demonstrate the potential of our approach, we use a sensor node example to evaluate our concept and to identify its energy bugs.
Der Beitrag beschreibt als Werkstattbericht die Kombination des Inverted Classroom Modells mit der agilen Entwicklungsmethodik von Scrum zu einem Veranstaltungskonzept für ein Grundlagenfach der Informatik. Neben der fachspezifischen Lehre wird dadurch das Vorgehen die in der Informatik immer wichtiger werdende agile Entwicklungsmethodik zum überfachlichen Kompentenzerwerb adressiert. Der Beitrag stellt die Umsetzung der agilen Lehrmethodik vor und gibt erste Rückmeldungen aus Sicht von Studierenden und Lehrenden.
Die Anforderungen an zukünftige Teilnehmende eines Arbeitsmarktes verändern sich. Das von Frithjof Bergmann begründete Prinzip der Neuen Arbeit (Bergmann, 2004) ist aktuell Gegenstand zahlreicher Diskussionen und Debatten über aktuelle und zukünftige Arbeitswelten. Die sich daraus ergebenden Kompetenzanforderungen passen mit der Lehre in Hochschulen wenig zusammen. Zunehmend werden agile Lernszenarien diskutiert.
Das Inverted Classroom Modell (ICM) erfreut sich seit einigen Jahren großer Beliebtheit in der Hochschullehre. Aus Studierendensicht ist die Teilnahme an einer ICM-Veranstaltung aber eine Herausforderung. Für ein erfolgreiches Lernen sind insbesondere personale Kompetenzen wie Selbstmotivation, Durchhaltevermögen und Selbstregulationskompetenz erforderlich (Pöpel & Morisse, 2019). Um diesem Umstand entgegenzuwirken, wurde vom Autor ICM mit Ideen aus Scrum für eine Informatik-Lehrveranstaltung kombiniert (siehe auch (Morisse & Heidemann, 2021)). Die Wirkung von Scrum kann sich nur entfalten, wenn die Arbeit in einzelne Sprints aufgeteilt wird und bei der Bearbeitung der Sprints auch die eigene Zusammenarbeit im Rahmen einer Retrospektive kritisch reflektiert wird. Zu diesem Zweck wird der gesamte Inhalt der Lehrveranstaltung in eine Anzahl von thematischen Blöcken aufgeteilt, die als Lehr- und Lerninhalte für die Lern-Sprints der Scrum-Umsetzung werden. Für jeden Themenblock müssen die theoretischen Inhalte erarbeitet sowie eine eigenständige Zusammenfassung formuliert werden. Ergänzend dazu wurde ein Software-Produkt definiert, in dessen Rahmen die theoretischen Inhalte einfließen konnten.
Die Durchführung eines Reviews und einer Retrospektive schließen bei Scrum einen Sprint ab. Genau dies lässt sich auch im Hochschulkontext sehr gut als Feedback-Instrument durchführen. Das Review bestand in der Inspektion der entwickelten Software. Mit der Retrospektive wird die eigene Zusammenarbeit im Team kritisch reflektiert. Ein besonderes Augenmerk verdient der kommunikative Stil zwischen Lehrenden und Studierenden. Bei einem Veranstaltungskonzept, welches getragen wird von Interaktion und Diskussion, kommt einer empathischen und wertschätzenden Kommunikation eine besondere Bedeutung zu. Das dies in der vorgestellten Veranstaltung scheinbar gelungen ist, zeigt das Zitat eines der teilnehmenden Studierenden „Ich freue mich immer auf die Review-Termine“. Zur Erinnerung: Das Review ist der Termin zur Vorstellung des erreichten Ergebnisses, also eher ein Prüfungs-Setting, bei dem Studierende ihre Arbeit präsentieren. Weitere positive Resonanzmerkmale durch die Studierenden waren die hoffnungsvollen Fragen, ob denn die Veranstaltungen im kommenden Semester auch nach ICMScrum organisiert sind.
Artificial intelligence (AI) and human-machine interaction (HMI) are two keywords that usually do not fit embedded applications. Within the steps needed before applying AI to solve a specific task, HMI is usually missing during the AI architecture design and the training of an AI model. The human-in-the-loop concept is prevalent in all other steps of developing AI, from data analysis via data selection and cleaning to performance evaluation. During AI architecture design, HMI can immediately highlight unproductive layers of the architecture so that lightweight network architecture for embedded applications can be created easily. We show that by using this HMI, users can instantly distinguish which AI architecture should be trained and evaluated first since a high accuracy on the task could be expected. This approach reduces the resources needed for AI development by avoiding training and evaluating AI architectures with unproductive layers and leads to lightweight AI architectures. These resulting lightweight AI architectures will enable HMI while running the AI on an edge device. By enabling HMI during an AI uses inference, we will introduce the AI-in-the-loop concept that combines AI's and humans' strengths. In our AI-in-the-loop approach, the AI remains the working horse and primarily solves the task. If the AI is unsure whether its inference solves the task correctly, it asks the user to use an appropriate HMI. Consequently, AI will become available in many applications soon since HMI will make AI more reliable and explainable.
Innovationen sind die stärksten Gestaltungsfaktoren für eine neue vielversprechende Zukunft, da sie die wichtigsten Treiber für Wachstum und Ertrag in unserer Wirtschaft sind. Die aktuelle Zeitenwende zeigt uns sehr deutlich, dass wir ohne Innovationen bzw. Veränderungen und Anpassungen kaum noch wettbewerbsfähig bleiben, sowohl als Nation bzw. als Gesellschaft und insbesondere als Unternehmen.
Die hohe Dynamik und Komplexität der wirtschaftlichen und sozialen Prozesse setzt neue Maßstäbe an die Innovationsstrategien von Institutionen und Unternehmen.
Neue Technologien, neue Märkte, neues Kundenverhalten und der stetige Wandel sowohl in der Arbeitswelt als auch in unserem gesellschaftlichen Umfeld, wie z.B. die Digitalisierung, zeigen uns, dass allein eine Produktinnovation als solche heute nicht mehr ausreicht. Unter den genannten Randbedingungen müssen Innovationen auch in der Gestaltung von Geschäftsprozessen und Realisierung der "Work-Life-Balance" neu erdacht bzw. überprüft werden.
Der Vorsprung innovativer Produkte im viralen Wettbewerb ist oft nur kurz. Ein ganzheitliches Innovationsmanagement hat alle Bereiche des Unternehmens einzubeziehen und führt zu neuen Geschäftsmodellen, die etablierte Geschäftspraktiken verdrängen, ebenso tauchen durch neue Technologien in immer stärkerem Maße neue Anbieter auf, die die Spielregeln in den Märkten verändern.
Der 1. Deutsche Innovations-Kongress will Impulse setzen, Best-Practice-Modelle als Vorbilder anbieten und im Austausch zwischen den Referent*innen und den Teilnehmer*innen neue Wege bzw. Perspektiven eröffnen.
Wir freuen uns auf alle Teilnehmer*innen und den Erfahrungsaustausch, um aktuelle und nachhaltige Innovations-Impulse zu setzen und neue Wege erfolgversprechende Wege zu beschreiben, womit die bereits fruchtbaren Kooperationen zwischen Wirtschaft und Wissenschaft im Großraum Osnabrück noch weiter belebt werden soll.
Aktuell tragen auch 8 Studierendengruppen des Masterstudiengangs "Entwicklung und Produktion" der Hochschule Osnabrück in der Fakultät I u. I im Rahmen des Moduls "Innovationsmanagement" in Kooperation mit Unternehmen aus der Region durch die Entwicklung neuer innovativer Produkte zum Erfolg des Kongresses bei. Die Zwischenergebnisse dazu werden in einer Poster-Ausstellung präsentiert. Die Innovationsprojekte werden unter der Leitung von Prof. Dr. Jens Schäfer durchgeführt.
Die Maschine ist in der Lage faserverstärkte thermoplastische Kunststoffrohre herzustellen. Entwickelt und konstruiert wurde die Maschine als Open Source Hardware Projekt. Das bedeutet die Baupläne und Zeichnungen werden frei zur Verfügung gestellt. Heimwerker und andere Interessierte sollen dadurch die Möglichkeit bekommen faserverstärkte Rohre eigenständig und günstig herzustellen. Die Entwicklung und Konstruktion der Wickelmaschine ist das Ergebnis einer Masterarbeit an der Hochschule Osnabrück.