Refine
Document Type
- Conference Proceeding (20)
- Article (9)
- Book (4)
- Part of a Book (1)
- Doctoral Thesis (1)
- Part of Periodical (1)
Has Fulltext
- no (36) (remove)
Keywords
- Future Skills (2)
- Inverted Classroom (2)
- Power Consumption (2)
- Scrum (2)
- time synchronization (2)
- 5G (1)
- 802.1AS (1)
- AVB/TSN (1)
- Agile Lehre (1)
- Bodennährstoffanalyse (1)
Institute
- Fakultät IuI (36) (remove)
The objective of this review is a global assessment of the economics of second‐generation biorefineries, with a focus on the use of food waste and agricultural residues for chemical production by applying biotechnological processes. Analyses are conducted on feedstock and product distribution, applied economic models, and profitability figures for the period 2013–2018. In a study of 163 articles on different biorefinery systems, the production of chemicals is identified as the second major product class, after bioenergy. Bagasse and straw are frequently analyzed second‐generation feedstocks. Based on the evaluation of 22 articles, second‐generation biorefineries producing chemicals by applying biotechnological processes proves to be economically feasible. On average, both the internal rate of return (IRR) and the return on investment (ROI) are 20% and the payback period (PP) is 6 years. The cost share of feedstock in biorefineries is between 0–50%. The price of the end product and the fermentation yields have the most impact on profitability. The processing of food waste that has industrial and municipal origins appears more economical than the processing of agricultural residues. Scientists, policy makers and entrepreneurs with an appropriate risk tolerance are advised to pay particular attention to municipal food waste and the potential economic production of carboxylic acids. For various economic issues related to biorefineries, dynamic‐deterministic models are recommended, which can be extended by a stochastic model. This review provides an initial overview of the economic feasibility of second‐generation biorefineries. Further techno‐economic analyses are required to produce statistically significant statements on key profitability figures. © 2020 The Authors. Biofuels, Bioproducts, and Biorefining published by Society of Chemical Industry and John Wiley & Sons, Ltd.
Artificial intelligence (AI) and human-machine interaction (HMI) are two keywords that usually do not fit embedded applications. Within the steps needed before applying AI to solve a specific task, HMI is usually missing during the AI architecture design and the training of an AI model. The human-in-the-loop concept is prevalent in all other steps of developing AI, from data analysis via data selection and cleaning to performance evaluation. During AI architecture design, HMI can immediately highlight unproductive layers of the architecture so that lightweight network architecture for embedded applications can be created easily. We show that by using this HMI, users can instantly distinguish which AI architecture should be trained and evaluated first since a high accuracy on the task could be expected. This approach reduces the resources needed for AI development by avoiding training and evaluating AI architectures with unproductive layers and leads to lightweight AI architectures. These resulting lightweight AI architectures will enable HMI while running the AI on an edge device. By enabling HMI during an AI uses inference, we will introduce the AI-in-the-loop concept that combines AI's and humans' strengths. In our AI-in-the-loop approach, the AI remains the working horse and primarily solves the task. If the AI is unsure whether its inference solves the task correctly, it asks the user to use an appropriate HMI. Consequently, AI will become available in many applications soon since HMI will make AI more reliable and explainable.
Analysis of methods for prioritizing critical data transmissions in agricultural vehicular networks
(2020)
Applying wireless communication technologies to agricultural vehicular networks often results in high end-to-end delays and loss of packets due to intermittent or broken connectivity. This paper analyses the methods for the successful delivery of the vehicular data within acceptable delay times. Different kinds of data that are generated and transmitted in agricultural networks are considered in this paper, followed by the data prioritization methods which allow critical data to be prioritized against other data. In this regard, Enhanced Distributed Channel Access, Differentiated Services, and application-based data rate variation are discussed in conjunction with the Simple Network Management Protocol. These techniques are simulated or tested separately and then together and the results show that even in poor network conditions, high-prioritized data is not lost or delayed.
Die Digitalisierung des Bodenbeprobungsverfahrens mit einer automatisierten Generierung einer Düngeempfehlung auf Grundlage der analysierten Bodennährstoffgehalte – direkt nach Beendigung der Bodenbeprobung auf dem Acker – ist ein übergeordnetes Ziel bei der Nutzung des mobilen Feldlabors „soil2data“. Neben den Bodennährstoffanalyse-Ergebnissen sind für die Umsetzung einer automatisierten generierten Düngeempfehlung weitere Informationen notwendig.
Die Quellen dieser Informationen haben einen unterschiedlichen Ursprung. Es sind Daten aus verschiedenen Quellen vom Bewirtschafter, von Dienstleistern und vom mobilen Feldlabor, welche miteinander verknüpft und synchronisiert werden müssen. Für einen automatisierten Prozessablauf zur Generierung einer Düngeempfehlung ist die Datenorganisation eine essenzielle Voraussetzung. Die Grundlage der Empfehlung sind die Tabellenwerke der offiziellen Düngeempfehlung, die bei den für die Düngung zuständigen Behörden der Bundesländer vorliegen. In dieser Publikation werden die notwendigen Daten und der Prozessdatenfluss für die Bodenbeprobung und Düngeempfehlung-Generierung beschrieben und grafisch dargestellt.
Aufgrund der zunehmenden Überdüngung landwirtschaftlicher Flächen durch Wirtschaftsdünger und Gärreste aus Biogasanlagen wird eine ökonomische und ökologische Vollaufbereitungstechnik zur Separation der Nährstoffe und zur Gewinnung von Prozesswasser aus Gärresten und Güllen benötigt. Das Vollaufbereitungsverfahren zur Düngemittelrückgewinnung durch mehrstufige Fest-/ Flüssigtrennung und Membrantechnik könnte diese Anforderungen durch eine intensive Optimierung der Ultrafiltrationsstufe erfüllen. Das Ziel der vorliegenden Arbeit ist die Reduktion des Energiebedarfes der Ultrafiltrationsstufe um 50 %, da diese Prozessstufe ca. 50 – 70 % des Gesamtenergiebedarfes ausmacht. Damit wäre ein wirtschaftliches Vollaufbereitungsverfahren flächendeckend einsetzbar.
Für die Optimierung der Ultrafiltrationsstufe wurden Gärreste aus 19 Biogasanlagen in einem Stichprobenumfang von 42 Proben auf ihre physikalisch/chemischen Parameter und insbesondere das separierte Zentrat auf dessen Filtrierbarkeit in einer UF-Rührzelle untersucht. Im Allgemeinen zeigte sich eine hohe Schwankungsbreite der erzielbaren Permeatflüsse. Funktionelle Zusammenhänge wurden zwischen den organischen Inhaltsstoffen, der scheinbaren Viskosität der Zentrate und dem Ultrafiltrationsfluss gefunden. Gärrestzentrate weisen ein Nicht-Newtonsches rheologisches Fließverhalten auf. Hauptsächlich Biopolymere, darunter Polysaccharide und Proteine, sind sowohl für die erzielbare Flussleistung, als auch für das rheologische Verhalten relevant. Modifikation und Verringerung dieser kritischen Biopolymerfraktion bieten damit einen möglichen Optimierungsansatz, der in der Arbeit durch Ozonierung und Komplexbildung durch pH-Wert-Verschiebung realisiert wurde. Die Optimierung der Ultrafiltration wurde in drei verschiedenen Maßstäben untersucht: Labor-, Technikums- und Pilotmaßstab. Die Ozonierung zeigte dabei positive Eigenschaften in Bezug auf Flussverbesserungen und Abbau der Strukturviskosität. Durch die Modifikation und Verkleinerung der Biopolymere wurde in allen drei Maßstäben eine Flussverbesserung um den Faktor 1,4 – 2,3 erzielt.
Durch die Ansäuerung der Zentrate zu pH-Werten unterhalb der isoelektrischen Punkte der Proteine wurde eine Komplexbildung der Biopolymere erreicht, die bisher nur für Modellsysteme in der Literatur dargestellt wurde. Durch die Vergrößerung der Partikel um den Faktor 7 – 17 bei der Komplexierung wurde in allen drei Versuchsmaßstäben eine Verbesserung der Flussleistung um ca. Faktor 2 erzielt.
Die Temperaturerhöhung wurde in Rohrmodulen im Technikums- und Pilotmaßstab untersucht. Dabei zeigte sich bei einer Temperaturerhöhung von 40 – 45 °C auf 60 – 75 °C eine Verbesserung der Flussleistung um den Faktor 1,4, die auf die sinkende Permeatviskosität und eine verbesserte Deckschichtkontrolle zurückgeführt wurde. Die Kombination aus Ozonierung und hoher Prozesstemperatur zeigte synergetische Ergebnisse, da sowohl durch die hohe Prozesstemperatur, als auch durch die Ozonierung die Zentratviskosität herabgesetzt wurde. Dadurch wurde die Reynoldszahl im Rohrmodul erhöht, was einen positiven Einfluss auf die Filtrierbarkeit zeigte. Durch die erhöhte Reynoldszahl bestand die Möglichkeit, die Strömungsgeschwindigkeit im Ultrafiltrationsloop zu verringern, was einen wesentlichen Einfluss auf den Energiebedarf der Ultrafiltrationsstufe hat. Im Rahmen der Untersuchungen wurde eine sehr gute Übertragbarkeit zwischen den Ergebnissen der verschiedenen Maßstäbe festgestellt. Die Ergebnisse des Labormaßstabes erlauben eine Vorhersage der Membranflüsse auf großtechnische Ultrafiltrationsanlagen. Trotz der hohen Diversität der beprobten Anlagen ermöglichten die Ergebnisse aufgrund des hohen Stichprobenumfanges mathematische Zusammenhänge zwischen den Biopolymeren und der temperaturabhängigen scheinbaren und temperaturabhängigen Viskosität von Gärrestzentraten.
Bei der energetischen Bilanzierung der Ultrafiltrationsanlage wurden an beiden Standorten in Summe sechs Verfahrensmodifikationen gefunden, die eine Reduktion des Energiebedarfes um ≥ 50 % ermöglichen. Diese Projektzielstellung wurde durch eine hohe Prozesstemperatur bei gleichzeitig reduzierter Überströmungsgeschwindigkeit, Ozonierung bei gleichzeitig hoher Prozesstemperatur und durch die Ansäuerung erreicht. Der niedrigste Energiebedarf wurde durch die Ozonierung bei gleichzeitig hoher Prozesstemperatur und reduzierter Überströmungsgeschwindigkeit erreicht. Der Energiebedarf wurde bei dieser Verfahrensmodifikation um 54 – 59 % reduziert.
In einer abschließenden Wirtschaftlichkeitsbetrachtung einer 50000 t∙a-1 Anlage an einem deutschen Standort wurde durch die KWK geförderte Wärmenutzung der wirtschaftlichste Fall für eine hohe Prozesstemperatur bei gleichzeitig reduzierter Überströmungsgeschwindigkeit festgestellt. Die spezifischen Gesamtkosten des volltechnischen Verfahrens wurden von 8 – 8,50 € pro Kubikmeter aufbereitetem Gärrest auf 5 – 5,50 € um 33,5 – 37,8 % reduziert. Nach Angaben der kooperierenden Firma ist damit ein wirtschaftlicher Anlagenbetrieb möglich.
Die Maschine ist in der Lage faserverstärkte thermoplastische Kunststoffrohre herzustellen. Entwickelt und konstruiert wurde die Maschine als Open Source Hardware Projekt. Das bedeutet die Baupläne und Zeichnungen werden frei zur Verfügung gestellt. Heimwerker und andere Interessierte sollen dadurch die Möglichkeit bekommen faserverstärkte Rohre eigenständig und günstig herzustellen. Die Entwicklung und Konstruktion der Wickelmaschine ist das Ergebnis einer Masterarbeit an der Hochschule Osnabrück.
A recently published study of high temperature nitridation of iron chromium aluminum alloys (FeCrAl) at 900°C in N2–H2 has redundantly shown the formation of locally confined corrosion pockets reaching several microns into the alloy. These nitrided pockets form underneath chromia islands laterally surrounded by the otherwise protective alumina scale. Chromia renders a nitrogen‐permeable defect under the given conditions and the presence of aluminum in the alloy. In light of these findings on FeCrAl, a focused ion beam–scanning electron microscope tomography study has been undertaken on an equally nitrided FeNiCrAl sample to characterize its nitridation corrosion features chemically and morphologically. The alloy is strengthened by a high number of chromium carbide precipitates, which are also preferential chromia formation sites. Besides the confirmation of the complete encapsulation of the corrosion pocket from the alloy by a closed and dense aluminum nitride rim, very large voids have been found in the said pockets. Furthermore, metallic particles comprising nickel and iron are deposited on top of the outer oxide scale above such void regions.
With the increasing size and complexity of embedded systems, the impact of software on energy consumption is becoming more important. Previous research focused mainly on energy optimization at the hardware level. However, little research has been carried out regarding energy optimization at the software design level. This paper focuses on the software design level and addresses the gap between software and hardware design for embedded systems. This is achieved by proposing a framework for software design patterns, which takes aspects of power consumption and time behavior of the hardware level into account. We evaluate the expressiveness of the framework by applying it to well-known and novel design patterns. Furthermore, we introduce a dimensionless numerical efficiency factor to make possible energy savings quantifiable.
The usage of high-level synthesis (HLS) tools for FPGAs has increased significantly over the last years since they matured and allow software programmers to take advantage of reconfigurable hardware technology.
Most HLS tools employ methods to optimize for loops, e. g. by unrolling or pipelining them. But there is hardly any work on the optimization of while loops. This comes at no surprise since most while loops have loop-carried dependences involving the loop condition which result in large recurrence cycles in the dataflow graphs. Therefore typical while loops cannot be parallelized or pipelined.
We propose a novel transformation which allows to optimize while loops nested within a for loop. By interchanging the two loops, it is possible to pipeline (and thereby parallelize) the inner loop, resulting in a reduced execution time. We present two case studies on different hardware platforms and show the speedup factors - compared to a host processor and to an unoptimized hardware implementation - achieved by our while loop optimization method.
Innovationen sind die stärksten Gestaltungsfaktoren für eine neue vielversprechende Zukunft, da sie die wichtigsten Treiber für Wachstum und Ertrag in unserer Wirtschaft sind. Die aktuelle Zeitenwende zeigt uns sehr deutlich, dass wir ohne Innovationen bzw. Veränderungen und Anpassungen kaum noch wettbewerbsfähig bleiben, sowohl als Nation bzw. als Gesellschaft und insbesondere als Unternehmen.
Die hohe Dynamik und Komplexität der wirtschaftlichen und sozialen Prozesse setzt neue Maßstäbe an die Innovationsstrategien von Institutionen und Unternehmen.
Neue Technologien, neue Märkte, neues Kundenverhalten und der stetige Wandel sowohl in der Arbeitswelt als auch in unserem gesellschaftlichen Umfeld, wie z.B. die Digitalisierung, zeigen uns, dass allein eine Produktinnovation als solche heute nicht mehr ausreicht. Unter den genannten Randbedingungen müssen Innovationen auch in der Gestaltung von Geschäftsprozessen und Realisierung der "Work-Life-Balance" neu erdacht bzw. überprüft werden.
Der Vorsprung innovativer Produkte im viralen Wettbewerb ist oft nur kurz. Ein ganzheitliches Innovationsmanagement hat alle Bereiche des Unternehmens einzubeziehen und führt zu neuen Geschäftsmodellen, die etablierte Geschäftspraktiken verdrängen, ebenso tauchen durch neue Technologien in immer stärkerem Maße neue Anbieter auf, die die Spielregeln in den Märkten verändern.
Der 1. Deutsche Innovations-Kongress will Impulse setzen, Best-Practice-Modelle als Vorbilder anbieten und im Austausch zwischen den Referent*innen und den Teilnehmer*innen neue Wege bzw. Perspektiven eröffnen.
Wir freuen uns auf alle Teilnehmer*innen und den Erfahrungsaustausch, um aktuelle und nachhaltige Innovations-Impulse zu setzen und neue Wege erfolgversprechende Wege zu beschreiben, womit die bereits fruchtbaren Kooperationen zwischen Wirtschaft und Wissenschaft im Großraum Osnabrück noch weiter belebt werden soll.
Aktuell tragen auch 8 Studierendengruppen des Masterstudiengangs "Entwicklung und Produktion" der Hochschule Osnabrück in der Fakultät I u. I im Rahmen des Moduls "Innovationsmanagement" in Kooperation mit Unternehmen aus der Region durch die Entwicklung neuer innovativer Produkte zum Erfolg des Kongresses bei. Die Zwischenergebnisse dazu werden in einer Poster-Ausstellung präsentiert. Die Innovationsprojekte werden unter der Leitung von Prof. Dr. Jens Schäfer durchgeführt.
Der Beitrag beschreibt die Entwicklung eines Inverted Classroom Konzeptes für ein Informatik-Grundlagenfach an einer Hochschule. Basierend auf Vorlesungsaufzeichnungen und Vorlesungsskript wurde hierbei besonderes Augenmerk auf die Gestaltung der gemeinsamen Präsenzzeit zwischen Studierenden und Lehrenden gelegt. Durch zahlreiche aktivierende Elemente sind die Studierenden hierbei gefordert, ihren Lernprozess selbst zu gestalten, um somit über die fachlichen Kompetenzen des Faches hinaus auch überfachliche Kompetenzen, wie beispielsweise Kommunikations- und Kooperationskompetenz, Selbstlernkompetenz und Eigenverantwortung zu trainieren.
Der Beitrag beschreibt als Werkstattbericht die Kombination des Inverted Classroom Modells mit der agilen Entwicklungsmethodik von Scrum zu einem Veranstaltungskonzept für ein Grundlagenfach der Informatik. Neben der fachspezifischen Lehre wird dadurch das Vorgehen die in der Informatik immer wichtiger werdende agile Entwicklungsmethodik zum überfachlichen Kompentenzerwerb adressiert. Der Beitrag stellt die Umsetzung der agilen Lehrmethodik vor und gibt erste Rückmeldungen aus Sicht von Studierenden und Lehrenden.
Die Anforderungen an zukünftige Teilnehmende eines Arbeitsmarktes verändern sich. Das von Frithjof Bergmann begründete Prinzip der Neuen Arbeit (Bergmann, 2004) ist aktuell Gegenstand zahlreicher Diskussionen und Debatten über aktuelle und zukünftige Arbeitswelten. Die sich daraus ergebenden Kompetenzanforderungen passen mit der Lehre in Hochschulen wenig zusammen. Zunehmend werden agile Lernszenarien diskutiert.
Das Inverted Classroom Modell (ICM) erfreut sich seit einigen Jahren großer Beliebtheit in der Hochschullehre. Aus Studierendensicht ist die Teilnahme an einer ICM-Veranstaltung aber eine Herausforderung. Für ein erfolgreiches Lernen sind insbesondere personale Kompetenzen wie Selbstmotivation, Durchhaltevermögen und Selbstregulationskompetenz erforderlich (Pöpel & Morisse, 2019). Um diesem Umstand entgegenzuwirken, wurde vom Autor ICM mit Ideen aus Scrum für eine Informatik-Lehrveranstaltung kombiniert (siehe auch (Morisse & Heidemann, 2021)). Die Wirkung von Scrum kann sich nur entfalten, wenn die Arbeit in einzelne Sprints aufgeteilt wird und bei der Bearbeitung der Sprints auch die eigene Zusammenarbeit im Rahmen einer Retrospektive kritisch reflektiert wird. Zu diesem Zweck wird der gesamte Inhalt der Lehrveranstaltung in eine Anzahl von thematischen Blöcken aufgeteilt, die als Lehr- und Lerninhalte für die Lern-Sprints der Scrum-Umsetzung werden. Für jeden Themenblock müssen die theoretischen Inhalte erarbeitet sowie eine eigenständige Zusammenfassung formuliert werden. Ergänzend dazu wurde ein Software-Produkt definiert, in dessen Rahmen die theoretischen Inhalte einfließen konnten.
Die Durchführung eines Reviews und einer Retrospektive schließen bei Scrum einen Sprint ab. Genau dies lässt sich auch im Hochschulkontext sehr gut als Feedback-Instrument durchführen. Das Review bestand in der Inspektion der entwickelten Software. Mit der Retrospektive wird die eigene Zusammenarbeit im Team kritisch reflektiert. Ein besonderes Augenmerk verdient der kommunikative Stil zwischen Lehrenden und Studierenden. Bei einem Veranstaltungskonzept, welches getragen wird von Interaktion und Diskussion, kommt einer empathischen und wertschätzenden Kommunikation eine besondere Bedeutung zu. Das dies in der vorgestellten Veranstaltung scheinbar gelungen ist, zeigt das Zitat eines der teilnehmenden Studierenden „Ich freue mich immer auf die Review-Termine“. Zur Erinnerung: Das Review ist der Termin zur Vorstellung des erreichten Ergebnisses, also eher ein Prüfungs-Setting, bei dem Studierende ihre Arbeit präsentieren. Weitere positive Resonanzmerkmale durch die Studierenden waren die hoffnungsvollen Fragen, ob denn die Veranstaltungen im kommenden Semester auch nach ICMScrum organisiert sind.
The present study gives an overview of recent investigations dealing with the fatigue behaviour of the tempered martensitic steel 50CrMo4 (Fe-0.5wt%C-1wt%Cr) in the HCF and VHCF regime by taking into account a variation in material strength, by modifying the heat treatment parameters. The parameters for the tempering treatment were adapted to receive two material conditions with 37HRC and 57HRC, respectively. Subsequently, fatigue specimens were machined from the heat-treated bars for fatigue tests in an ultrasonic (f=20000Hz) and a resonance (f=95Hz) fatigue testing machine under fully reversed loading (R=-1) at laboratory air atmosphere. It was found that the dominant fatigue and fracture mechanisms change with increasing material strength. For 37HRC moderate-strength specimens crack initiation was shown to occur on the specimen surface within Cr depleted bands (segregation bands) as the dominant fatigue damage mechanism. Contrary to that, only internal crack initiation at non-metallic inclusions was observed for the high strength 57HRC condition. Furthermore, the completely different crack initiation mechanisms of the two heat treatment conditions were assessed by applying the Murakami approach relating the fatigue limit with the size of non-metallic inclusions.
Various overoxidized poly(1H-pyrrole) (PPy), poly(N-methylpyrrole) (PMePy) or poly(3,4-ethylenedioxythiophene) (PEDOT) membranes incorporated into an acrylate-based solid polymer electrolyte matrix (SPE) were directly electrosynthesized by a two-step in situ procedure. The aim was to extend and improve fundamental properties of pure SPE materials. The polymer matrix is based on the cross-linking of glycerol propoxylate (1PO/OH) triacrylate (GPTA) with poly(ethylene glycol) diacrylate (PEGDA) and lithium bis(trifluoromethanesulfonyl)imide (LiTFSI) as a conducting salt. A self-standing and flexible polymer electrolyte film is formed during the UV-induced photopolymerization of the acrylate precursors, followed by an electrochemical polymerization of the conducting polymers to form a 3D-IPN. The electrical conductivity of the conducting polymer is destroyed by electrochemical overoxidation in order to convert the conducting polymer into an ion-exchange membrane by introduction of electron-rich groups onto polymer units. The resulting polymer films were characterized by scanning electron microscopy, cyclic voltammetry, electrochemical impedance spectroscopy, differential scanning calorimetry, thermal analysis and infrared spectroscopy. The results of this study show that the combination of a polyacrylate-matrix with ion selective properties of overoxidized CPs leads to new 3D materials with higher ionic conductivity than SPEs and separator or selective ion-exchange membrane properties with good stability by facile fabrication.