Refine
Document Type
- Conference Proceeding (20)
- Article (9)
- Book (4)
- Part of a Book (1)
- Doctoral Thesis (1)
- Part of Periodical (1)
- Working Paper (1)
Has Fulltext
- no (37) (remove)
Keywords
- Future Skills (2)
- Inverted Classroom (2)
- Power Consumption (2)
- Scrum (2)
- time synchronization (2)
- 5G (1)
- 802.1AS (1)
- AVB/TSN (1)
- Agile Lehre (1)
- Bodennährstoffanalyse (1)
- Computer-Human Interaction (1)
- Delphi-Studie (1)
- DiffServ (1)
- Digital (1)
- Digitalisierung Bodenbeprobung (1)
- Dokumentation (1)
- Dynamic Adaptation (1)
- EDCA (1)
- Embedded Software Engineering (1)
- Embedded Systems (1)
- Energy Bug (1)
- Energy Efficiency (1)
- Erfolg (1)
- Ethernet (1)
- FIB-SEM tomography (1)
- FeNiCrAl (1)
- IEEE 802.1Q (1)
- ISFET-sensor module (1)
- Industry (1)
- Innovation (1)
- Innovationsmanagement (1)
- Internet of Things (1)
- Inverted Classroom Model (1)
- Landmaschinenkommunikation (1)
- LoRaWAN (1)
- MARTE (1)
- Materialermüdung (1)
- Mobility (1)
- Model-Driven Development (1)
- OMNeT++ (1)
- Open Source (1)
- Physiotherapie (1)
- Prozessdaten (1)
- Reliable Communication (1)
- Software (1)
- Software Design Pattern (1)
- TSN (1)
- Telecommunication networks (1)
- UML (1)
- Wifi (1)
- agricultural vehicular network (1)
- agriculture (1)
- agriculture robotics (1)
- automatisch generierte Düngeempfehlung (1)
- bioeconomy (1)
- biotechnological processes (1)
- bio‐based chemicals (1)
- concept mobile field laboratory (1)
- economic evaluation (1)
- eye-tracking (1)
- fermentation (1)
- field-lab (1)
- gPTP (1)
- hybrid locomotion (1)
- lab on a chip (1)
- mobiles Feldlabor soil2data (1)
- nitridation (1)
- nutritional behavior (1)
- nutritional choices (1)
- precision farming (1)
- prioritization (1)
- robotics (1)
- second‐generation biorefineries (1)
- selbstorganisiertes Lernen (1)
- soil nutrients analysis (1)
- soil sampling (1)
- soil2data (1)
- space robotics (1)
- tsn (1)
- void formation (1)
- wlan (1)
- überfachliche Kompetenzen (1)
Institute
- Fakultät IuI (37) (remove)
This paper investigates four different mobile robots with respect to their drivingcharacteristics and soil preservation properties in an agricultural environment.Thereby, robots of classical design from agriculture as well as systems from spacerobotics with advanced locomotion concepts are considered to determine theindividual advantages of each rover concept with respect to the application domain.Locomotion experiments were conducted to analyze the general driving behavior,tensile force, and obstacle‐surmounting capability and ground interaction of eachrobot. Various soil conditions typical for the area of application are taken intoaccount, which are varied in terms of moisture and density. The presented workcovers the specification of the conducted experiments, documentation of theimplementation as well as analysis and evaluation of the collected data. In theevaluation, particular attention is paid to the change in driving characteristics underdifferent soil conditions, as well as to the soil stress caused by driving, since soilquality is of critical importance for agricultural applications. The analysis shows thatthe advanced locomotion concepts, as used in space robotics, also have positiveimplications for certain requirements in agricultural applications, such as maneuver-ability in wet conditions and soil conservation. The results show potential for designinnovations in agricultural robotics that can be used, to open up new fields ofapplication for instance in the context of precision farming.
The 3GPP release 16 integrates TSN functionality into 5G and standardizes various options for TSN time synchronization over 5G such as transparent mode and bridge mode. The time domains for the TSN network and the 5G network are kept separate with an option to synchronize either of the networks to the other. The TSN time synchronization over 5G is possible either by using the IEEE 1588 generalized Precision Time Protocol (gPTP) based on UDP/IP multicast or via IEEE 802.1AS based on Ethernet PDUs. The INET and Simu5G simulation frameworks, which are both based on the OMNeT++ discrete event simulator, are widely used for simulating TSN and 5G networks. The INET framework comprises the 802.1AS based time synchronization mechanism, and Simu5G provides the 5G user plane carrying IP PDUs. We modified the 802.1AS-based synchronization model of INET so that it works over UDP/IP. With that, it is possible to synchronize TSN slaves (connected to 5G UEs), across a 5G network, with a TSN master clock, present within a TSN network, that is connected to the 5G core network. Our simulation results show that 500 microseconds of synchronization accuracy can be achieved with the corrected asymmetric propagation delay of uplink and downlink between the gNodeB (gNB) and the User Equipment (UE). Furthermore, the synchronization accuracy can be improved if the delay difference between uplink and downlink is known.
Recent real-time networking developments have enabled ultra reliability, very low latency and high data rates in wired networks. Wireless networking developments have also shown that they can achieve very high data rates with consistency, but they still lack in providing ultra reliability and extremely low latency. Time Sensitive Networking (TSN) developments have brought these capabilities in Industry automation and Automotive industry too. Although TSN is standardized for wired networks for a long time, for wireless networks it will be standardized within the IEEE 802.11be standard for Wi-Fi and 3GPP Release 17 for 5G in the near future. This paper provides an overview of TSN in wired and wireless networks with the aim of comparing different simulators and presenting their offered functionality and shortcomings. These tools can be used to make oneself familiar with TSN algorithms, standards, and for the development and testing of time sensitive networks. Afterwards, the paper discusses open research questions for using TSN over wireless networks.
This paper presents a framework for OMNeT++ which includes time synchronization model for WLANs. Synchronization is based on the Generalized Precision Time Protocol (gPTP) standard, which aims to achieve an accuracy of less than 100 nanoseconds. The presented model is developed and implemented in OMNeT++, a discrete event network simulator, using its INET library. A new type of WLAN node is modeled which supports time synchronization at the Link layer. A clock module for WLAN nodes is also modeled which implements variable clock drift to simulate noise interference in clock frequency oscillators. Simulations with our WLAN nodes are done and the results show that using gPTP based time synchronization in wireless networks, accuracy of ±3ns can be achieved.
Long Range Wide Area Network (LoRaWAN) operates in the ISM band with 868 MHz, where the Time on Air (ToA) is regulated in the EU to 1 %. LoRaWAN nodes use the Adaptive Data Rate (ADR) algorithm to adapt their data rates during operation. The standard ADR algorithm works well with stationary nodes, however is very slow in the adaptation for mobile nodes. This paper introduces a new ADR algorithm for LoRaWAN that is supported by higher level meta-data for sensor streams, namely Quality of Information (QoI). With the help of QoI it is possible to provide additional information to the new ADR algorithm, reducing the convergence time and thus improving the Packet Delivery Ratio (PDR) of data from mobile sensor nodes. The new algorithm requires only modifications on network server side and keeps backwards compatibility with LoRaWAN nodes. Results show a significant better PDR compared to the standard ADR in scenarios with a limited number of mobile nodes.
Auf vielen Landmaschinen wird der CAN-Bus zur Übertragung von Daten zwischen Sensoren, Aktoren und Steuergeräten genutzt. Anwendungen wie Rückfahrkameras und Bird-ViewAnzeigen erfordern in der Regel zusätzliche, breitbandige Kommunikationskanäle. Dieser Beitrag untersucht, inwieweit ein gemeinschaftliches Kommunikationsmedium auf Basis von Ethernet zur Realisierung aktueller und zukünftiger Anwendungen auf Landmaschinen genutzt werden kann. Zusätzlich wird der Einsatz aktueller Technologien wie Audio/Video Bridging, Time-Sensitive Networking und Wifi auf einem Landmaschinengespann untersucht und bewertet.
Analysis of methods for prioritizing critical data transmissions in agricultural vehicular networks
(2020)
Applying wireless communication technologies to agricultural vehicular networks often results in high end-to-end delays and loss of packets due to intermittent or broken connectivity. This paper analyses the methods for the successful delivery of the vehicular data within acceptable delay times. Different kinds of data that are generated and transmitted in agricultural networks are considered in this paper, followed by the data prioritization methods which allow critical data to be prioritized against other data. In this regard, Enhanced Distributed Channel Access, Differentiated Services, and application-based data rate variation are discussed in conjunction with the Simple Network Management Protocol. These techniques are simulated or tested separately and then together and the results show that even in poor network conditions, high-prioritized data is not lost or delayed.
Die Digitalisierung des Bodenbeprobungsverfahrens mit einer automatisierten Generierung einer Düngeempfehlung auf Grundlage der analysierten Bodennährstoffgehalte – direkt nach Beendigung der Bodenbeprobung auf dem Acker – ist ein übergeordnetes Ziel bei der Nutzung des mobilen Feldlabors „soil2data“. Neben den Bodennährstoffanalyse-Ergebnissen sind für die Umsetzung einer automatisierten generierten Düngeempfehlung weitere Informationen notwendig.
Die Quellen dieser Informationen haben einen unterschiedlichen Ursprung. Es sind Daten aus verschiedenen Quellen vom Bewirtschafter, von Dienstleistern und vom mobilen Feldlabor, welche miteinander verknüpft und synchronisiert werden müssen. Für einen automatisierten Prozessablauf zur Generierung einer Düngeempfehlung ist die Datenorganisation eine essenzielle Voraussetzung. Die Grundlage der Empfehlung sind die Tabellenwerke der offiziellen Düngeempfehlung, die bei den für die Düngung zuständigen Behörden der Bundesländer vorliegen. In dieser Publikation werden die notwendigen Daten und der Prozessdatenfluss für die Bodenbeprobung und Düngeempfehlung-Generierung beschrieben und grafisch dargestellt.
Knowledge of the small-scale nutrient status of arable land is an important basis for optimizing fertilizer use in crop production. A mobile field laboratory opens up the possibility of carrying out soil sampling and nutrient analysis directly on the field. In addition to the benefits of fast data availability and the avoidance of soil material transport to the laboratory, it provides a future foundation for advanced application options, e.g. a high sampling density, sampling of small sub-fields or dynamic adaptation of the sampling line during field sampling. An innovative key component is the NUTRI-STAT ISFET sensor module. It measures values for the ions "NO3- ”, “H2PO4- " and "K+ " as well as the pH. The ISFET sensor module was specially developed for soil nutrient analysis. The phosphorus measurement was further developed for the project "soil2data". First results from the ISFET sensor module show a measurement signal settling time of significantly less than 100 seconds and a further consistent stable measurement signal. The measurement signal dynamics of approx. 58 mV per factor 10 of concentration change is given for the measured variables pH and K+. For the measured quantities of NO3- and H2PO4- , the measurement signal dynamics are lower.
Knowledge of the maximum friction coefficient µmax between tire and road is necessary for implementing autonomous driving. As this coefficient cannot be measured via existing serial vehicle sensors, µmax estimation is a challenging field in modern automotive research. In particular, model-based approaches are applied, which are limited in the estimation accuracy by the physical vehicle model. Therefore, this paper presents a data-based µmax estimation using serial vehicle sensors. For this purpose, recurrent artificial neural networks are trained, validated, and tested based on driving maneuvers carried out with a test vehicle showing improved results compared to the model-based algorithm from previous works.
Die Maschine ist in der Lage faserverstärkte thermoplastische Kunststoffrohre herzustellen. Entwickelt und konstruiert wurde die Maschine als Open Source Hardware Projekt. Das bedeutet die Baupläne und Zeichnungen werden frei zur Verfügung gestellt. Heimwerker und andere Interessierte sollen dadurch die Möglichkeit bekommen faserverstärkte Rohre eigenständig und günstig herzustellen. Die Entwicklung und Konstruktion der Wickelmaschine ist das Ergebnis einer Masterarbeit an der Hochschule Osnabrück.
Innovationen sind die stärksten Gestaltungsfaktoren für eine neue vielversprechende Zukunft, da sie die wichtigsten Treiber für Wachstum und Ertrag in unserer Wirtschaft sind. Die aktuelle Zeitenwende zeigt uns sehr deutlich, dass wir ohne Innovationen bzw. Veränderungen und Anpassungen kaum noch wettbewerbsfähig bleiben, sowohl als Nation bzw. als Gesellschaft und insbesondere als Unternehmen.
Die hohe Dynamik und Komplexität der wirtschaftlichen und sozialen Prozesse setzt neue Maßstäbe an die Innovationsstrategien von Institutionen und Unternehmen.
Neue Technologien, neue Märkte, neues Kundenverhalten und der stetige Wandel sowohl in der Arbeitswelt als auch in unserem gesellschaftlichen Umfeld, wie z.B. die Digitalisierung, zeigen uns, dass allein eine Produktinnovation als solche heute nicht mehr ausreicht. Unter den genannten Randbedingungen müssen Innovationen auch in der Gestaltung von Geschäftsprozessen und Realisierung der "Work-Life-Balance" neu erdacht bzw. überprüft werden.
Der Vorsprung innovativer Produkte im viralen Wettbewerb ist oft nur kurz. Ein ganzheitliches Innovationsmanagement hat alle Bereiche des Unternehmens einzubeziehen und führt zu neuen Geschäftsmodellen, die etablierte Geschäftspraktiken verdrängen, ebenso tauchen durch neue Technologien in immer stärkerem Maße neue Anbieter auf, die die Spielregeln in den Märkten verändern.
Der 1. Deutsche Innovations-Kongress will Impulse setzen, Best-Practice-Modelle als Vorbilder anbieten und im Austausch zwischen den Referent*innen und den Teilnehmer*innen neue Wege bzw. Perspektiven eröffnen.
Wir freuen uns auf alle Teilnehmer*innen und den Erfahrungsaustausch, um aktuelle und nachhaltige Innovations-Impulse zu setzen und neue Wege erfolgversprechende Wege zu beschreiben, womit die bereits fruchtbaren Kooperationen zwischen Wirtschaft und Wissenschaft im Großraum Osnabrück noch weiter belebt werden soll.
Aktuell tragen auch 8 Studierendengruppen des Masterstudiengangs "Entwicklung und Produktion" der Hochschule Osnabrück in der Fakultät I u. I im Rahmen des Moduls "Innovationsmanagement" in Kooperation mit Unternehmen aus der Region durch die Entwicklung neuer innovativer Produkte zum Erfolg des Kongresses bei. Die Zwischenergebnisse dazu werden in einer Poster-Ausstellung präsentiert. Die Innovationsprojekte werden unter der Leitung von Prof. Dr. Jens Schäfer durchgeführt.
Artificial intelligence (AI) and human-machine interaction (HMI) are two keywords that usually do not fit embedded applications. Within the steps needed before applying AI to solve a specific task, HMI is usually missing during the AI architecture design and the training of an AI model. The human-in-the-loop concept is prevalent in all other steps of developing AI, from data analysis via data selection and cleaning to performance evaluation. During AI architecture design, HMI can immediately highlight unproductive layers of the architecture so that lightweight network architecture for embedded applications can be created easily. We show that by using this HMI, users can instantly distinguish which AI architecture should be trained and evaluated first since a high accuracy on the task could be expected. This approach reduces the resources needed for AI development by avoiding training and evaluating AI architectures with unproductive layers and leads to lightweight AI architectures. These resulting lightweight AI architectures will enable HMI while running the AI on an edge device. By enabling HMI during an AI uses inference, we will introduce the AI-in-the-loop concept that combines AI's and humans' strengths. In our AI-in-the-loop approach, the AI remains the working horse and primarily solves the task. If the AI is unsure whether its inference solves the task correctly, it asks the user to use an appropriate HMI. Consequently, AI will become available in many applications soon since HMI will make AI more reliable and explainable.
Die Anforderungen an zukünftige Teilnehmende eines Arbeitsmarktes verändern sich. Das von Frithjof Bergmann begründete Prinzip der Neuen Arbeit (Bergmann, 2004) ist aktuell Gegenstand zahlreicher Diskussionen und Debatten über aktuelle und zukünftige Arbeitswelten. Die sich daraus ergebenden Kompetenzanforderungen passen mit der Lehre in Hochschulen wenig zusammen. Zunehmend werden agile Lernszenarien diskutiert.
Das Inverted Classroom Modell (ICM) erfreut sich seit einigen Jahren großer Beliebtheit in der Hochschullehre. Aus Studierendensicht ist die Teilnahme an einer ICM-Veranstaltung aber eine Herausforderung. Für ein erfolgreiches Lernen sind insbesondere personale Kompetenzen wie Selbstmotivation, Durchhaltevermögen und Selbstregulationskompetenz erforderlich (Pöpel & Morisse, 2019). Um diesem Umstand entgegenzuwirken, wurde vom Autor ICM mit Ideen aus Scrum für eine Informatik-Lehrveranstaltung kombiniert (siehe auch (Morisse & Heidemann, 2021)). Die Wirkung von Scrum kann sich nur entfalten, wenn die Arbeit in einzelne Sprints aufgeteilt wird und bei der Bearbeitung der Sprints auch die eigene Zusammenarbeit im Rahmen einer Retrospektive kritisch reflektiert wird. Zu diesem Zweck wird der gesamte Inhalt der Lehrveranstaltung in eine Anzahl von thematischen Blöcken aufgeteilt, die als Lehr- und Lerninhalte für die Lern-Sprints der Scrum-Umsetzung werden. Für jeden Themenblock müssen die theoretischen Inhalte erarbeitet sowie eine eigenständige Zusammenfassung formuliert werden. Ergänzend dazu wurde ein Software-Produkt definiert, in dessen Rahmen die theoretischen Inhalte einfließen konnten.
Die Durchführung eines Reviews und einer Retrospektive schließen bei Scrum einen Sprint ab. Genau dies lässt sich auch im Hochschulkontext sehr gut als Feedback-Instrument durchführen. Das Review bestand in der Inspektion der entwickelten Software. Mit der Retrospektive wird die eigene Zusammenarbeit im Team kritisch reflektiert. Ein besonderes Augenmerk verdient der kommunikative Stil zwischen Lehrenden und Studierenden. Bei einem Veranstaltungskonzept, welches getragen wird von Interaktion und Diskussion, kommt einer empathischen und wertschätzenden Kommunikation eine besondere Bedeutung zu. Das dies in der vorgestellten Veranstaltung scheinbar gelungen ist, zeigt das Zitat eines der teilnehmenden Studierenden „Ich freue mich immer auf die Review-Termine“. Zur Erinnerung: Das Review ist der Termin zur Vorstellung des erreichten Ergebnisses, also eher ein Prüfungs-Setting, bei dem Studierende ihre Arbeit präsentieren. Weitere positive Resonanzmerkmale durch die Studierenden waren die hoffnungsvollen Fragen, ob denn die Veranstaltungen im kommenden Semester auch nach ICMScrum organisiert sind.
Der Beitrag beschreibt die Entwicklung eines Inverted Classroom Konzeptes für ein Informatik-Grundlagenfach an einer Hochschule. Basierend auf Vorlesungsaufzeichnungen und Vorlesungsskript wurde hierbei besonderes Augenmerk auf die Gestaltung der gemeinsamen Präsenzzeit zwischen Studierenden und Lehrenden gelegt. Durch zahlreiche aktivierende Elemente sind die Studierenden hierbei gefordert, ihren Lernprozess selbst zu gestalten, um somit über die fachlichen Kompetenzen des Faches hinaus auch überfachliche Kompetenzen, wie beispielsweise Kommunikations- und Kooperationskompetenz, Selbstlernkompetenz und Eigenverantwortung zu trainieren.
Der Beitrag beschreibt als Werkstattbericht die Kombination des Inverted Classroom Modells mit der agilen Entwicklungsmethodik von Scrum zu einem Veranstaltungskonzept für ein Grundlagenfach der Informatik. Neben der fachspezifischen Lehre wird dadurch das Vorgehen die in der Informatik immer wichtiger werdende agile Entwicklungsmethodik zum überfachlichen Kompentenzerwerb adressiert. Der Beitrag stellt die Umsetzung der agilen Lehrmethodik vor und gibt erste Rückmeldungen aus Sicht von Studierenden und Lehrenden.
Der Einsatz paralleler Hardware-Architekturen betrifft alle Software-Entwickler und -Entwicklerinnen: vom Supercomputer bis zum eingebetteten System werden Multi- und Manycore-Systeme inzwischen eingesetzt. Die Herausforderungen an das Software Engineering sind vielfältig. Zum einen ist (wieder) ein stärkeres Verständnis für die Hardware notwendig. Ohne eine skalierbare Partitionierung der Software und parallele Algorithmen bleibt die Rechenleistung ungenutzt. Zum anderen stehen neue Programmiersprachen im Vordergrund, die die Ausführung von parallelen Anweisungen ermöglichen.
Dieses Buch betrachtet unterschiedliche Aspekte bei der Entwicklung paralleler Systeme und berücksichtigt dabei auch eingebettete Systeme. Es verbindet Theorie und praktische Anwendung und ist somit für Studierende und Anwender in der Praxis gleichermaßen geeignet. Durch die programmiersprachenunabhängige Darstellung der Algorithmen können sie leicht für die eigene Anwendung angepasst werden. Viele praktische Projekte erleichtern das Selbststudium und vertiefen das Gelernte.
Due to the resource-constrained nature of embedded systems, it is crucial to support the estimation of their power consumption as early in the development process as possible. Non-functional requirements based on power consumption directly impact the software design, e.g., watt-hour thresholds and expected lifetimes based on battery capacities. Even if software affects hardware behavior directly, these types of requirements are often overlooked by software developers because they are commonly associated with the hardware layer. Modern trends in software engineering such as Model-Driven Development (MDD) can be used in embedded software development to evaluate power consumption-based requirements in early design phases. However, power consumption aspects are currently not sufficiently considered in MDD approaches. In this paper, we present a model-driven approach using Unified Modeling Language profile extensions to model hardware components and their power characteristics. Software m odels are combined with hardware models to achieve a system-wide estimation, including peripheral devices, and to make the power-related impact in early design stages visible. By deriving energy profiles, we provide software developers with valuable feedback, which may be used to identify energy bugs and evaluate power consumption-related requirements. To demonstrate the potential of our approach, we use a sensor node example to evaluate our concept and to identify its energy bugs.
Hintergrund Die physiotherapeutische Dokumentation spielt im Therapieprozess eine wichtige Rolle, erfolgt jedoch auf unterschiedlichste Weise. Es existieren derzeit eine Vielzahl von Softwarelösungen für die physiotherapeutische Dokumentation, welche sich jedoch in ihren Funktionalitäten stark unterscheiden. Ziel Mithilfe einer Befragung soll ein Konsens von Expertenaus der Physiotherapie im Themengebiet der softwarebasierten Dokumentation ermittelt werden. Anhand der Ergebnisse wird ein Anforderungskatalog für die Entwicklung einer neuartigen und benutzerorientierten Dokumentationssoftware erstellt. Methode Online-Delphi-Befragung mit neun Experten über drei Befragungswellen.
Ergebnisse Hinsichtlich der Anforderungen an die Anamnese konnte ein Konsens erzielt werden. Bei der Gliederung des Befundes kam es zu keiner Übereinstimmung der Experten. Das Ergebnis lässt sich durch unterschiedliche manualtherapeutische Konzepte erklären, die für die Befunderhebung verwendet wurden. Schlussfolgerung Eine softwarebasierte Dokumentation sollte standardisierter als bisher erfolgen, um den ClinicalReasoning-Prozess zu unterstützten. Gleichzeitig ist dabei eine gewisse Flexibilität geboten. Die gesammelten Anforderungen können für die Entwicklung einer neuartigen und benutzerorientierten mobilen Anwendung zur Effizienzsteigerung in der physiotherapeutischen Dokumentation verwendet werden.
The effects of reaction parameters on Hurn:xwiley:23670932:media:cptc202000216:cptc202000216-math-0001 production from ethanol photocatalysis in the gas phase have been investigated. The photocatalytic activity evolves from an early mass‐transfer limited regime to an independent one at later irradiation times, which is interpreted in terms of a photocatalytic site activity distribution. Ethanol molar fraction exhibits two different domains, with Hurn:xwiley:23670932:media:cptc202000216:cptc202000216-math-0002 production increasing up to a molar fraction of 0.12, beyond which it plateaus. Hurn:xwiley:23670932:media:cptc202000216:cptc202000216-math-0003 :AcH ratios are very sensitive to reaction conditions, reaching 1.8 at low reactant flows. UV light is converted to Hurn:x-wiley:23670932:media:cptc202000216:cptc202000216-math-0004 with an efficiency of nearly 3 %.
Various overoxidized poly(1H-pyrrole) (PPy), poly(N-methylpyrrole) (PMePy) or poly(3,4-ethylenedioxythiophene) (PEDOT) membranes incorporated into an acrylate-based solid polymer electrolyte matrix (SPE) were directly electrosynthesized by a two-step in situ procedure. The aim was to extend and improve fundamental properties of pure SPE materials. The polymer matrix is based on the cross-linking of glycerol propoxylate (1PO/OH) triacrylate (GPTA) with poly(ethylene glycol) diacrylate (PEGDA) and lithium bis(trifluoromethanesulfonyl)imide (LiTFSI) as a conducting salt. A self-standing and flexible polymer electrolyte film is formed during the UV-induced photopolymerization of the acrylate precursors, followed by an electrochemical polymerization of the conducting polymers to form a 3D-IPN. The electrical conductivity of the conducting polymer is destroyed by electrochemical overoxidation in order to convert the conducting polymer into an ion-exchange membrane by introduction of electron-rich groups onto polymer units. The resulting polymer films were characterized by scanning electron microscopy, cyclic voltammetry, electrochemical impedance spectroscopy, differential scanning calorimetry, thermal analysis and infrared spectroscopy. The results of this study show that the combination of a polyacrylate-matrix with ion selective properties of overoxidized CPs leads to new 3D materials with higher ionic conductivity than SPEs and separator or selective ion-exchange membrane properties with good stability by facile fabrication.
A recently published study of high temperature nitridation of iron chromium aluminum alloys (FeCrAl) at 900°C in N2–H2 has redundantly shown the formation of locally confined corrosion pockets reaching several microns into the alloy. These nitrided pockets form underneath chromia islands laterally surrounded by the otherwise protective alumina scale. Chromia renders a nitrogen‐permeable defect under the given conditions and the presence of aluminum in the alloy. In light of these findings on FeCrAl, a focused ion beam–scanning electron microscope tomography study has been undertaken on an equally nitrided FeNiCrAl sample to characterize its nitridation corrosion features chemically and morphologically. The alloy is strengthened by a high number of chromium carbide precipitates, which are also preferential chromia formation sites. Besides the confirmation of the complete encapsulation of the corrosion pocket from the alloy by a closed and dense aluminum nitride rim, very large voids have been found in the said pockets. Furthermore, metallic particles comprising nickel and iron are deposited on top of the outer oxide scale above such void regions.
With the increasing size and complexity of embedded systems, the impact of software on energy consumption is becoming more important. Previous research focused mainly on energy optimization at the hardware level. However, little research has been carried out regarding energy optimization at the software design level. This paper focuses on the software design level and addresses the gap between software and hardware design for embedded systems. This is achieved by proposing a framework for software design patterns, which takes aspects of power consumption and time behavior of the hardware level into account. We evaluate the expressiveness of the framework by applying it to well-known and novel design patterns. Furthermore, we introduce a dimensionless numerical efficiency factor to make possible energy savings quantifiable.
The objective of this review is a global assessment of the economics of second‐generation biorefineries, with a focus on the use of food waste and agricultural residues for chemical production by applying biotechnological processes. Analyses are conducted on feedstock and product distribution, applied economic models, and profitability figures for the period 2013–2018. In a study of 163 articles on different biorefinery systems, the production of chemicals is identified as the second major product class, after bioenergy. Bagasse and straw are frequently analyzed second‐generation feedstocks. Based on the evaluation of 22 articles, second‐generation biorefineries producing chemicals by applying biotechnological processes proves to be economically feasible. On average, both the internal rate of return (IRR) and the return on investment (ROI) are 20% and the payback period (PP) is 6 years. The cost share of feedstock in biorefineries is between 0–50%. The price of the end product and the fermentation yields have the most impact on profitability. The processing of food waste that has industrial and municipal origins appears more economical than the processing of agricultural residues. Scientists, policy makers and entrepreneurs with an appropriate risk tolerance are advised to pay particular attention to municipal food waste and the potential economic production of carboxylic acids. For various economic issues related to biorefineries, dynamic‐deterministic models are recommended, which can be extended by a stochastic model. This review provides an initial overview of the economic feasibility of second‐generation biorefineries. Further techno‐economic analyses are required to produce statistically significant statements on key profitability figures. © 2020 The Authors. Biofuels, Bioproducts, and Biorefining published by Society of Chemical Industry and John Wiley & Sons, Ltd.
Optimised Nutrient Recovery from Biogas Digestate by Solid/Liquid Separation and Membrane Treatment
(2019)
Anaerobic digestion products of agricultural biogas plants are characterised by high nitrogen, phosphorus, and potassium content. In three scale-up steps, a membrane based digestate treatment process of solid-liquid-separation, ultrafiltration, and reverse osmosis for nutrient recovery was investigated. Lab-scale trials delivered a very good understanding of fluid properties and subsequent ultrafiltration performance, which is the limiting process step in terms of energy demand and operation costs. In semi-technical experiments, optimisation, and design parameters were developed, which were subsequently applied to pilot-scale tests at two full-scale biogas plants. The process optimisation resulted in 50 % energy reduction of the ultrafiltration step. About 36 % of the sludge volume was recovered as dischargeable water, 20 % as solid N/P-fertiliser, and 44 % as liquid N/K-fertiliser.
The usage of high-level synthesis (HLS) tools for FPGAs has increased significantly over the last years since they matured and allow software programmers to take advantage of reconfigurable hardware technology.
Most HLS tools employ methods to optimize for loops, e. g. by unrolling or pipelining them. But there is hardly any work on the optimization of while loops. This comes at no surprise since most while loops have loop-carried dependences involving the loop condition which result in large recurrence cycles in the dataflow graphs. Therefore typical while loops cannot be parallelized or pipelined.
We propose a novel transformation which allows to optimize while loops nested within a for loop. By interchanging the two loops, it is possible to pipeline (and thereby parallelize) the inner loop, resulting in a reduced execution time. We present two case studies on different hardware platforms and show the speedup factors - compared to a host processor and to an unoptimized hardware implementation - achieved by our while loop optimization method.
Biogas plants produce nutrient rich digestates as side products, which are usually used as local fertilisers. Yet the large amount and regional gradients of biogas plants in Germany necessitate management, conditioning, and transportation of digestates, in order to follow good fertilising procedure and prohibit local over-fertilisation. With a membrane-based treatment chain, i.e. centrifugation, ultrafiltration, and reverse osmosis, digestates can be separated into a solid N,P-fertiliser, a liquid N,K-fertiliser, and dischargeable water. Up to now, the high energy demand of the process chain, in particular the ultrafiltration step, limits the economical market launch of the treatment chain. A reduction of the energy demand is challenging, as digestates exhibit a high fouling potential and ultrafiltration fluxes differ considerably for digestates from different biogas plants. In a systematic screening of 28 digestate samples from agricultural biogas plants and 6 samples from bio-waste biogas plants, ultrafiltration performance could be successfully linked to the rheological properties of the digestate’s liquid phase and to its macromolecular biopolymer concentration. By modification of the fluid characteristics through enzymatic treatment, ultrafiltration performance was considerably increased by factor 2.8 on average, which equals energy savings in the ultrafiltration step of approximately 45%. Consequently, the energy demand of the total treatment chain decreases, which offers potential for further rollout of the membrane-based digestate treatment.
The present study gives an overview of recent investigations dealing with the fatigue behaviour of the tempered martensitic steel 50CrMo4 (Fe-0.5wt%C-1wt%Cr) in the HCF and VHCF regime by taking into account a variation in material strength, by modifying the heat treatment parameters. The parameters for the tempering treatment were adapted to receive two material conditions with 37HRC and 57HRC, respectively. Subsequently, fatigue specimens were machined from the heat-treated bars for fatigue tests in an ultrasonic (f=20000Hz) and a resonance (f=95Hz) fatigue testing machine under fully reversed loading (R=-1) at laboratory air atmosphere. It was found that the dominant fatigue and fracture mechanisms change with increasing material strength. For 37HRC moderate-strength specimens crack initiation was shown to occur on the specimen surface within Cr depleted bands (segregation bands) as the dominant fatigue damage mechanism. Contrary to that, only internal crack initiation at non-metallic inclusions was observed for the high strength 57HRC condition. Furthermore, the completely different crack initiation mechanisms of the two heat treatment conditions were assessed by applying the Murakami approach relating the fatigue limit with the size of non-metallic inclusions.
Aufgrund der zunehmenden Überdüngung landwirtschaftlicher Flächen durch Wirtschaftsdünger und Gärreste aus Biogasanlagen wird eine ökonomische und ökologische Vollaufbereitungstechnik zur Separation der Nährstoffe und zur Gewinnung von Prozesswasser aus Gärresten und Güllen benötigt. Das Vollaufbereitungsverfahren zur Düngemittelrückgewinnung durch mehrstufige Fest-/ Flüssigtrennung und Membrantechnik könnte diese Anforderungen durch eine intensive Optimierung der Ultrafiltrationsstufe erfüllen. Das Ziel der vorliegenden Arbeit ist die Reduktion des Energiebedarfes der Ultrafiltrationsstufe um 50 %, da diese Prozessstufe ca. 50 – 70 % des Gesamtenergiebedarfes ausmacht. Damit wäre ein wirtschaftliches Vollaufbereitungsverfahren flächendeckend einsetzbar.
Für die Optimierung der Ultrafiltrationsstufe wurden Gärreste aus 19 Biogasanlagen in einem Stichprobenumfang von 42 Proben auf ihre physikalisch/chemischen Parameter und insbesondere das separierte Zentrat auf dessen Filtrierbarkeit in einer UF-Rührzelle untersucht. Im Allgemeinen zeigte sich eine hohe Schwankungsbreite der erzielbaren Permeatflüsse. Funktionelle Zusammenhänge wurden zwischen den organischen Inhaltsstoffen, der scheinbaren Viskosität der Zentrate und dem Ultrafiltrationsfluss gefunden. Gärrestzentrate weisen ein Nicht-Newtonsches rheologisches Fließverhalten auf. Hauptsächlich Biopolymere, darunter Polysaccharide und Proteine, sind sowohl für die erzielbare Flussleistung, als auch für das rheologische Verhalten relevant. Modifikation und Verringerung dieser kritischen Biopolymerfraktion bieten damit einen möglichen Optimierungsansatz, der in der Arbeit durch Ozonierung und Komplexbildung durch pH-Wert-Verschiebung realisiert wurde. Die Optimierung der Ultrafiltration wurde in drei verschiedenen Maßstäben untersucht: Labor-, Technikums- und Pilotmaßstab. Die Ozonierung zeigte dabei positive Eigenschaften in Bezug auf Flussverbesserungen und Abbau der Strukturviskosität. Durch die Modifikation und Verkleinerung der Biopolymere wurde in allen drei Maßstäben eine Flussverbesserung um den Faktor 1,4 – 2,3 erzielt.
Durch die Ansäuerung der Zentrate zu pH-Werten unterhalb der isoelektrischen Punkte der Proteine wurde eine Komplexbildung der Biopolymere erreicht, die bisher nur für Modellsysteme in der Literatur dargestellt wurde. Durch die Vergrößerung der Partikel um den Faktor 7 – 17 bei der Komplexierung wurde in allen drei Versuchsmaßstäben eine Verbesserung der Flussleistung um ca. Faktor 2 erzielt.
Die Temperaturerhöhung wurde in Rohrmodulen im Technikums- und Pilotmaßstab untersucht. Dabei zeigte sich bei einer Temperaturerhöhung von 40 – 45 °C auf 60 – 75 °C eine Verbesserung der Flussleistung um den Faktor 1,4, die auf die sinkende Permeatviskosität und eine verbesserte Deckschichtkontrolle zurückgeführt wurde. Die Kombination aus Ozonierung und hoher Prozesstemperatur zeigte synergetische Ergebnisse, da sowohl durch die hohe Prozesstemperatur, als auch durch die Ozonierung die Zentratviskosität herabgesetzt wurde. Dadurch wurde die Reynoldszahl im Rohrmodul erhöht, was einen positiven Einfluss auf die Filtrierbarkeit zeigte. Durch die erhöhte Reynoldszahl bestand die Möglichkeit, die Strömungsgeschwindigkeit im Ultrafiltrationsloop zu verringern, was einen wesentlichen Einfluss auf den Energiebedarf der Ultrafiltrationsstufe hat. Im Rahmen der Untersuchungen wurde eine sehr gute Übertragbarkeit zwischen den Ergebnissen der verschiedenen Maßstäbe festgestellt. Die Ergebnisse des Labormaßstabes erlauben eine Vorhersage der Membranflüsse auf großtechnische Ultrafiltrationsanlagen. Trotz der hohen Diversität der beprobten Anlagen ermöglichten die Ergebnisse aufgrund des hohen Stichprobenumfanges mathematische Zusammenhänge zwischen den Biopolymeren und der temperaturabhängigen scheinbaren und temperaturabhängigen Viskosität von Gärrestzentraten.
Bei der energetischen Bilanzierung der Ultrafiltrationsanlage wurden an beiden Standorten in Summe sechs Verfahrensmodifikationen gefunden, die eine Reduktion des Energiebedarfes um ≥ 50 % ermöglichen. Diese Projektzielstellung wurde durch eine hohe Prozesstemperatur bei gleichzeitig reduzierter Überströmungsgeschwindigkeit, Ozonierung bei gleichzeitig hoher Prozesstemperatur und durch die Ansäuerung erreicht. Der niedrigste Energiebedarf wurde durch die Ozonierung bei gleichzeitig hoher Prozesstemperatur und reduzierter Überströmungsgeschwindigkeit erreicht. Der Energiebedarf wurde bei dieser Verfahrensmodifikation um 54 – 59 % reduziert.
In einer abschließenden Wirtschaftlichkeitsbetrachtung einer 50000 t∙a-1 Anlage an einem deutschen Standort wurde durch die KWK geförderte Wärmenutzung der wirtschaftlichste Fall für eine hohe Prozesstemperatur bei gleichzeitig reduzierter Überströmungsgeschwindigkeit festgestellt. Die spezifischen Gesamtkosten des volltechnischen Verfahrens wurden von 8 – 8,50 € pro Kubikmeter aufbereitetem Gärrest auf 5 – 5,50 € um 33,5 – 37,8 % reduziert. Nach Angaben der kooperierenden Firma ist damit ein wirtschaftlicher Anlagenbetrieb möglich.