Refine
Year of publication
Document Type
- Conference Proceeding (58)
- Article (16)
- Book (6)
- Working Paper (4)
- Part of a Book (2)
- Bachelor Thesis (1)
- Doctoral Thesis (1)
- Moving Images (1)
- Other (1)
- Part of Periodical (1)
Keywords
- Inverted Classroom (4)
- LiDAR (3)
- Scrum (3)
- Agile Lehre (2)
- Future Skills (2)
- Gazebo (2)
- Kugelstrahlen (2)
- Materialermüdung (2)
- Power Consumption (2)
- Robot operating system (ROS) (2)
- Simulation and Modeling (2)
- Validierung (2)
- biogas (2)
- lab on a chip (2)
- mobile field laboratory (2)
- soil nutrients analysis (2)
- soil sampling (2)
- soil2data (2)
- time synchronization (2)
- 5G (1)
- 802.1AS (1)
- AI compliance (1)
- AVB/TSN (1)
- Abwärme (1)
- Accident prevention (1)
- Additives (1)
- Agile Didaktik (1)
- Agiles Lernen (1)
- Agricultural Automation (1)
- Agricultural streering system (1)
- Agriculture (1)
- Artificial intelligent (1)
- Artificial neural networks (1)
- Augmented data (1)
- BPMN (1)
- Bodennährstoffanalyse (1)
- Business Process Modeling (1)
- Chromatography (1)
- Closed-loop control systems (1)
- Cognitive enhancement technologies (1)
- Computer-Human Interaction (1)
- Cycling simulator (1)
- DMN (1)
- DTNs (1)
- Decision support application (1)
- Delphi-Studie (1)
- DiffServ (1)
- Digital (1)
- Digitalisierung Bodenbeprobung (1)
- Distributed Energy Management, Smart Grid, Privacy, Communication Performance, Robustness (1)
- Dokumentation (1)
- Dynamic Adaptation (1)
- Dynamic Process Adaption (1)
- EDCA (1)
- Einheitszelle (1)
- Einzelbeschuss (1)
- Embedded Software Engineering (1)
- Embedded Systems (1)
- Energy Bug (1)
- Energy Efficiency (1)
- Erfolg (1)
- Ethernet (1)
- Ethical AI (1)
- FIB-SEM tomography (1)
- Fahrerassistenzsysteme (1)
- Fatigue-relevant scatter (1)
- FeNiCrAl (1)
- Flipped Classroom (1)
- Functional safety (1)
- Gait Analysis (1)
- Game engine (1)
- Generalized periodicity (1)
- Getreideernte (1)
- HTML (1)
- Hybrid data (1)
- IEEE 802.1Q (1)
- ISFET measurement technology (1)
- ISFET-sensor module (1)
- Industry (1)
- Innovation (1)
- Innovationsmanagement (1)
- Internet of Things (1)
- Inverse Distance Weighting (1)
- Inverted Classroom Model (1)
- IoT (1)
- Kinematics Estimation (1)
- Klimaschutz (1)
- Kriging (1)
- Landkreis Osnabrück (1)
- Landmaschinenkommunikation (1)
- Language Extension (1)
- Law (1)
- Lebensdauercharakteristik (1)
- LoRaWAN (1)
- MARTE (1)
- Marker-less Skeleton Tracking (1)
- Mathematik (1)
- Meta Modeling (1)
- Migration (1)
- Mobility (1)
- Model-Driven Development (1)
- OMNeT++ (1)
- OSM (1)
- Open Source (1)
- OppNets (1)
- Orthopaedic Technical Support (1)
- Pflanzenmodelle (1)
- Physiotherapie (1)
- Poly(propylene) (1)
- Polymere (1)
- Pre-stress shot peening (1)
- Pregnancy Loss (1)
- Process Robustness Verification (1)
- Prozessdaten (1)
- QoS (1)
- Radiation (1)
- Realistic traffic simulation (1)
- Reality gap (1)
- Reckzügel (1)
- Rehabilitation, Person Tracking, Usability, Reliability (1)
- Reibermüdung (1)
- Reliable Communication (1)
- Shot peening intensity (1)
- Simulation (1)
- Simulation und Test (1)
- Simulationsmodell (1)
- Sines criterion (1)
- Sines-Kriterium (1)
- Smart Cities (1)
- Smart farming (1)
- Software (1)
- Software Design Pattern (1)
- Surfaces (1)
- Synthetic data (1)
- TSN (1)
- Telecommunication networks (1)
- Trust (1)
- UML (1)
- Unit cell (1)
- Unreliable Communication Environments (1)
- Verfestigungsstrahlen (1)
- Waldhoff (1)
- Web (1)
- Web-Components (1)
- Web-Engineering (1)
- Wifi (1)
- agricultural vehicular network (1)
- automatisch generierte Düngeempfehlung (1)
- bioeconomy (1)
- biotechnological processes (1)
- bio‐based chemicals (1)
- concept mobile field laboratory (1)
- cooperative busines models (1)
- design (1)
- digital farming (1)
- drivers and barriers (1)
- economic evaluation (1)
- embedded software engineering (1)
- energy bug (1)
- energy efficiency (1)
- eye-tracking (1)
- fermentation (1)
- field-lab (1)
- fretting fatigue (1)
- gPTP (1)
- green hydrogen (1)
- grief (1)
- hydrogen (1)
- ion-selective field effect transistors (ISFET) (1)
- life characteristic (1)
- miscarriage (1)
- mobile Fieldlab soil2data (1)
- mobiles Feldlabor soil2data (1)
- model-driven development (1)
- model-in-the-loop (1)
- nitridation (1)
- nutritional behavior (1)
- nutritional choices (1)
- prioritization (1)
- rBPMN (1)
- second‐generation biorefineries (1)
- selbstorganisiertes Lernen (1)
- smart city; monitoring; plausibility; traffic data; time series; spatio-temporal; reasoning (1)
- social media (1)
- soil nutrient analysis (1)
- soil preparation for analysis (1)
- soil sensor (1)
- spatial resoning, distance algorithm, IoT, (1)
- tsn (1)
- void formation (1)
- wlan (1)
- überfachliche Kompetenzen (1)
Institute
- Fakultät IuI (92) (remove)
This article proposes the concept of a simulation framework for environmental sensors with multilevel abstraction in agricultural scenarios. The implementation case study is a simulation of a grain-harvesting scenario enabled by LiDAR sensors. Environmental sensor models as well as kinematics and dynamic behavior of machines are based on the robotics simulator Gazebo. Models for powertrain, machine process aggregates and peripheral simulation components are implemented with the help of MATLAB/ Simulink and with the robotics middleware Robot Operating System (ROS). This article deals with the general concept of a multilevel simulation framework and in particular with sensor and environmental modeling.
The objective of this review is a global assessment of the economics of second‐generation biorefineries, with a focus on the use of food waste and agricultural residues for chemical production by applying biotechnological processes. Analyses are conducted on feedstock and product distribution, applied economic models, and profitability figures for the period 2013–2018. In a study of 163 articles on different biorefinery systems, the production of chemicals is identified as the second major product class, after bioenergy. Bagasse and straw are frequently analyzed second‐generation feedstocks. Based on the evaluation of 22 articles, second‐generation biorefineries producing chemicals by applying biotechnological processes proves to be economically feasible. On average, both the internal rate of return (IRR) and the return on investment (ROI) are 20% and the payback period (PP) is 6 years. The cost share of feedstock in biorefineries is between 0–50%. The price of the end product and the fermentation yields have the most impact on profitability. The processing of food waste that has industrial and municipal origins appears more economical than the processing of agricultural residues. Scientists, policy makers and entrepreneurs with an appropriate risk tolerance are advised to pay particular attention to municipal food waste and the potential economic production of carboxylic acids. For various economic issues related to biorefineries, dynamic‐deterministic models are recommended, which can be extended by a stochastic model. This review provides an initial overview of the economic feasibility of second‐generation biorefineries. Further techno‐economic analyses are required to produce statistically significant statements on key profitability figures. © 2020 The Authors. Biofuels, Bioproducts, and Biorefining published by Society of Chemical Industry and John Wiley & Sons, Ltd.
Wie können wir die Lehre heute gestalten, wenn wir nicht wissen, was morgen gebraucht wird?
Unter dieser Perspektive werden aktuelle Herausforderungen und Chancen universitärer Bildung betrachtet. Ausgehend von einer höheren organisatorischen Perspektive übergehend zu der Mikroperspektive einer einzelnen Lehrveranstaltung. Die Rolle von generativen KI-Systemen wird betrachtet.
Der Begriff New Learning im Kontext von New Work wird aufgegriffen und in Anlehnung an das Agile Manifesto der SW-Entwicklung wird ein agiles Manifest für die Lehre formuliert. Dieses wird in den Zusammenhang mit den sog. Zukunftskompetenzen oder Future Skills gebracht.
Das Interesse am Lehrkonzept des Inverted Classroom (ICM) erfreut sich in den letzten Jahren zunehmender Beliebtheit und mit Beginn der Corona-Pandemie und dem damit verbundenen Umstieg auf Online-gestützt Lehrformate ist es noch einmal deutlich gestiegen. Beim ICM wird die Phase der Wissensvermittlung aus der Präsenzphase der traditionellen Lehrveranstaltung umgedreht: Was bisher während der gemeinsamen Veranstaltungszeit präsentiert wurde, wird nun über Texte, Videos u.a. in eine vorgelagerte Selbstlernphase aus der Veranstaltungszeit ausgelagert. Die gemeinsame Präsenzzeit wird für aktives Lernen, Vertiefung, Diskussion oder andere aktive Formate genutzt. Das Inverted Classroom Modell wird Disziplin- und veranstaltungsübergreifend in der Lehre sowohl in Schulen wie auch Hochschulen genutzt.
Die von Sutherland und Schwaber entwickelte Scrum-Methodik ist ein etabliertes Vorgehensmodell in der Software-Entwicklung und dem Projektmanagement. Scrum bietet durch definierte Rollen, Artefakte und Ereignisse einen Rahmen in dem inkrementell an der Entwicklung eines Produktes gearbeitet werden kann. Diese Inkremente werden in Arbeitszyklen (Sprints) erarbeitet, bei denen die stetige Verbesserung des Produktes und der Arbeitsweise im Fokus stehen. Mit eduScrum oder Scrum4Schools wird Scrum in die Lehre übertragen.
Es liegt auf der Hand, dass sich die Konzepte des ICM und Scrum sehr gut ergänzen und die Scrum Methodik einen formalen Rahmen für ICM bieten kann.
Der Beitrag beschreibt die Umsetzung dieser Kombination agiler Methodiken aus Scrum im Kontext des Inverted Classroom in einer Informatik-Grundlagenveranstaltung an der Hochschule Osnabrück.
Artificial intelligence (AI) and human-machine interaction (HMI) are two keywords that usually do not fit embedded applications. Within the steps needed before applying AI to solve a specific task, HMI is usually missing during the AI architecture design and the training of an AI model. The human-in-the-loop concept is prevalent in all other steps of developing AI, from data analysis via data selection and cleaning to performance evaluation. During AI architecture design, HMI can immediately highlight unproductive layers of the architecture so that lightweight network architecture for embedded applications can be created easily. We show that by using this HMI, users can instantly distinguish which AI architecture should be trained and evaluated first since a high accuracy on the task could be expected. This approach reduces the resources needed for AI development by avoiding training and evaluating AI architectures with unproductive layers and leads to lightweight AI architectures. These resulting lightweight AI architectures will enable HMI while running the AI on an edge device. By enabling HMI during an AI uses inference, we will introduce the AI-in-the-loop concept that combines AI's and humans' strengths. In our AI-in-the-loop approach, the AI remains the working horse and primarily solves the task. If the AI is unsure whether its inference solves the task correctly, it asks the user to use an appropriate HMI. Consequently, AI will become available in many applications soon since HMI will make AI more reliable and explainable.
This paper presents an optimized algorithm for estimating static and dynamic gait parameters. We use a marker- and contact-less motion capture system that identifies 20 joints of a person walking along a corridor.
Based on the proposed gait cycle detection basic metrics as walking frequency, step/stride length, and support phases are estimated automatically. Applying a rigid body model, we are capable to calculate static and dynamic gait stability metrics. We conclude with initial results of a clinical study evaluating orthopaedic technical support.
Interpolation of data in smart city architectures is an eminent task for the provision of reliable services. Furthermore, it is a key functionality for information validation between spatiotemporally related sensors. Nevertheless, many existing projects use a simplified geospatial model that does not take the infrastructure, which affects events and effects in the real world, into account. There are various available algorithms for interpolation and the calculation of routes on infrastructure based graphs and distances on geospatial data. This work proposes a combined approach by interconnecting detailed geospatial data whilst regarding the underlying infrastructure model.
Knowledge of the small-scale nutrient status of a field is an important basis for decision-making when it comes to optimising the fertiliser use in crop production. Currently, the traditional method involves soil sampling in the field and soil sample analysis in the laboratory as two separate working processes.
The previous research project "soil2data" developed a mobile field laboratory for different carrier vehicles. In the follow-up project "prototypes4soil2data", the results of soil2data are further developed. A mixed soil sample is collected during the drive on the field. The soil sample is then wet-chemically prepared and analysed. The overall soil sampling and analysis process is divided into the following process steps: soil sampling planning, soil sampling, soil preparation, soil analysis and data management. The process steps are modified for the mobile field laboratory and the process steps run in parallel. The new soil extraction method is based on official German methods (VDLUFA) to ensure the interoperability of the analysis results with the VDLUFA fertiliser recommendations. An innovative key component is the NUTRISTAT analysis module (lab-on-chip with ISFET measurement technology). It can measure pH, the nutrients NO3-, H2PO4-, K+ and the electrical conductivity. In addition to the advantages of rapid data availability and no need to transport soil material to the laboratory, it provides a future basis for new application, e.g. verification of current results in the field during soil sampling with existing results or dynamic adjustment of soil sampling during work in the field.
Analysis of methods for prioritizing critical data transmissions in agricultural vehicular networks
(2020)
Applying wireless communication technologies to agricultural vehicular networks often results in high end-to-end delays and loss of packets due to intermittent or broken connectivity. This paper analyses the methods for the successful delivery of the vehicular data within acceptable delay times. Different kinds of data that are generated and transmitted in agricultural networks are considered in this paper, followed by the data prioritization methods which allow critical data to be prioritized against other data. In this regard, Enhanced Distributed Channel Access, Differentiated Services, and application-based data rate variation are discussed in conjunction with the Simple Network Management Protocol. These techniques are simulated or tested separately and then together and the results show that even in poor network conditions, high-prioritized data is not lost or delayed.
Die Nutzung von Sensorsystemen bei der teilflächenspezifischen Bewirtschaftung eines Schlags steigert den Ertrag sowie die Wirtschaftlichkeit des Pflanzenanbaus. Dennoch tragen weitere Faktoren zur optimalen Nährstoffversorgung einer Pflanze bei, als sie von solch einem lokal arbeitenden System erfasst werden. Um die Effizienz dieser Precision Farming Systeme auszubauen ist der nächste, hier erfolgreich durchgeführte Schritt die Anbindung der mobilen Landmaschine über das Internet an eine regionsübergreifende Datenanalyseplattform und die Ausführung zeitkritischer Optimierungsfunktionen auf der Landmaschine.
he development of context-aware applications is a difficult and error-prone task. The dynamics of the environmental context combined with the complexity of the applications poses a vast number of possibilities for mistakes during the creation of new applications. Therefore it is important to test applications before they are deployed in a life system. For this reason, this paper proposes a testing tool, which will allow for automatic generation of various test cases from application description documents. Semantic annotations are used to create specific test data for context-aware applications. A test case reduction methodology based on test case diversity investigations ensures scalability of the proposed automated testing approach.
Smart city applications in the Big Data era require not only techniques dedicated to dynamicity handling, but also the ability to take into account contextual information, user preferences and requirements, and real-time events to provide optimal solutions and automatic configuration for the end user. In this paper, we present a specific functionality in the design and implementation of a declarative decision support component that exploits contextual information, user preferences and requirements to automatically provide optimal configurations of smart city applications. The key property of user-centricity of our approach is achieved by enabling users to declaratively specify constraints and preferences on the solutions provided by the smart city application through the Decision Support component, and automatically map these constraints and preferences to provide optimal responses targeting user needs. We showcase the effectiveness and flexibility of our solution in two real usecase scenarios: a multimodal travel planner and a mobile parking application. All the components and algorithms described in this paper have been defined and implemented as part of the Smart City Framework CityPulse.
Bamboo is an environmentally friendly alternative to conventional materials in mechanical engineering such as steel or aluminium. Bamboo is the fastest growing plant in the world. Instead of releasing CO2 during the manufacturing process, bamboo absorbs CO2 as it grows.
In addition to the sustainability aspect, bamboo tubes also offer excellent properties as a lightweight construction material, which have been optimised through evolution. Bamboo tubes have high strength and stiffness at low weight when used as tension-compression bars or bending beams. Bamboo has strong, high-density fibres at the boundary area, where bending stresses are greatest. Towards the inside, where the stresses are lower, the bamboo becomes porous to optimise weight. This, together with knots arranged in regular intervals, counteracts buckling.
In mobile applications such as cars and bicycles, lightweight construction is sought for energy efficiency reasons. Because of its excellent lightweight properties, the project investigated whether bamboo could be used in mobile, automotive or agricultural engineering. For example, a bamboo bicycle frame has been developed with the aim to be as light as possible. There are bamboo bicycles on the market, but they can only be made one at a time by hand. The bamboo tubes are joined together and functional elements such as the bottom bracket and headset are integrated by wrapping them in resin-impregnated natural or carbon fibres. This makes the joints very heavy. A different approach is taken here: the bamboo tubes are drilled out slightly to achieve a defined internal diameter, and then short aluminium tubes are glued into the bamboo canes from the inside. To prevent the cane from breaking in the circumferential direction, i.e. perpendicular to the fibre direction, the bamboo tubes are wrapped in a thin layer of natural or carbon fibre impregnated with synthetic resin. The aluminium tubes and functional elements are welded or soldered together beforehand.
The design of the bicycle frame, i.e. the dimensioning of the bamboo tubes and joints, was based on extensive bending and tensile tests to determine the strength properties of the natural material bamboo. The bonding between the bamboo cane and the aluminium tube was also investigated experimentally. Finally, several prototype bicycle frames were made and tested for durability according to DIN-EN-14764. The frames passed the tests.
The result is a bamboo bicycle that is manufactured with standardised connectors and joints. The assembly concept developed allows both fully automated and semi-automated series production of bamboo bicycles.
In der Schriftenreihe „Voneinander Lehren lernen“, die vom LearningCenter der Hochschule Osnabrück herausgegeben wird, werden anwendungsbezogene Beiträge zur Qualitätsentwicklung in Studium und Lehre publiziert.
Die Schriftenreihe ist an das hochschuldidaktische Konzept des „Scholarship of Teaching and Learning“ angelehnt. Demnach soll sie insbesondere den Fachlehrenden aller Studiengänge als Plattform dienen, um ihre eigenen Erfahrungen, Ideen und Konzepte zur Lehr- und Studiengangentwicklung systematisch zu reflektieren und entsprechende Erkenntnisse für andere nutzbar zu machen. Ziel ist es, den Diskurs über hochschuldidaktische Themen in die Fächer zu tragen und so nachhaltig zu einer hohen Qualität der Lehr-Lernprozesse in den Studiengängen beizutragen. Ergänzt werden die Texte der Fachlehrenden um Beiträge von Mitarbeiter*innen der im Bereich Studium und Lehre tätigen Organisationseinheiten.
Die Schriftenreihe ist eng an das Lehrkolleg der Hochschule Osnabrück gekoppelt. Dabei handelt es sich um ein Angebotsformat des LearningCenters, in dem Professor*innen und Lehrkräfte für besondere Aufgaben die Möglichkeit haben, unter hochschuldidaktischer Begleitung innovative Lehrentwicklungsprojekte in ihren eigenen Lehrveranstaltungen und Modulen umzusetzen. Der erste Band der Schriftenreihe enthält Beiträge von Teilnehmer*innen des Lehrkollegs 2018, in dem verschiedene Entwicklungsprojekte zur Förderung von Kompetenzen für selbstreguliertes Lernen durchgeführt wurden.
Innerhalb eines Forschungsprojektes wurde ein Energiesystemoptimierungsmodell entwickelt, das mögliche Geschäftsmodelle als Weiterbetriebsoptionen für Biogasanlagen betrachtet. Insbesondere der Einfluss von fluktuierenden Strommarktpreisen und variierenden Treibhausgasquoten soll kritisch im innerdeutschen Kontext beleuchtet werden.
Our world and our lives are changing in many ways. Communication, networking, and computing technologies are among the most influential enablers that shape our lives today. Digital data and connected worlds of physical objects, people, and devices are rapidly changing the way we work, travel, socialize, and interact with our surroundings, and they have a profound impact on different domains,such as healthcare, environmental monitoring, urban systems, and control and management applications, among several other areas. Cities currently face an increasing demand for providing services that can have an impact on people’s everyday lives. The CityPulse framework supports smart city service creation by means of a distributed system for semantic discovery, data analytics, and interpretation of large-scale (near-)real-time Internet of Things data and social media data streams. To goal is to break away from silo
applications and enable cross-domain data integration. The CityPulse framework integrates multimodal, mixed quality, uncertain and incomplete data to create reliable, dependable information and continuously adapts data processing techniques to meet the quality of information requirements from end users. Different than existing solutions that mainly offer unified views of the data, the CityPulse framework is also equipped with powerful data analytics modules that perform intelligent data aggregation, event detection, quality
assessment, contextual filtering, and decision support. This paper presents the framework, describes ist components, and demonstrates how they interact to support easy development of custom-made applications for citizens. The benefits and the effectiveness of the framework are demonstrated in a use-case scenario
implementation presented in this paper.
Compliance of agricultural AI systems : app-based legal verification throughout the development
(2024)
Significant advances in artificial intelligence (AI) have been achieved; however, practical implementation in agriculture remains limited. Compliance with emerging regulations, such as the EU AI Act and GDPR, is now vital, even for non-critical AI systems. Developers need tools to assess legal compliance, which is complex, often requiring full legal advice. To address this issue, we are developing a support app that simplifies the legal aspects of AI system development, covering the entire lifecycle, from conception to distribution. The current app, which covers the key legal area of copyright and will soon include GDPR and the AI Act, aims to bridge the gap between AI research and agriculture. An evaluation of our app by experts from both the legal and the IT domains shows that the app assists the developers so that they make legally correct statements. Consequently, it promotes legal compliance and awareness among developers, contributing to the seamless integration of AI into agriculture. The need for compliant AI systems in various industries, including agriculture, will only increase as regulations evolve.
Die Unterstützung des Maschinenführers auf der Landmaschine durch digitale Dienste nimmt immer stärker zu. Die Darstellungsmöglichkeiten sind jedoch auf die Größe der eingesetzten Terminals beschränkt. Um Sichteinschränkungen aus der Kabine durch zusätzliche Terminals zu vermeiden, ist der Einsatz von Augmented Reality sinnvoll. Hier lassen sich die vorhandenen Informationen statisch oder dynamisch in das Sichtfeld des Landwirts einblenden. Doch erst durch die in diesen Beitrag gezeigte Overlay Darstellungsebene mit integrierten Informationen lässt sich das Potenzial der Augmented Reality vollständig nutzen.
For Delay-Tolerant Networks (DTNs) many routing algorithms have been suggested. However, their performance depends heavily on the applied scenario. Especially heterogeneous scenarios featuring known and unknown node movements as well as different kinds of data lead to either poor delivery ratios or exhausted network resources.
To overcome these problems this paper introduces Data-Driven Routing for DTNs. Data is categorized according to its requirements into priority queues. Each queue applies an appropriate DTN routing algorithm that fits the data requirements best. Simulation results show that Data-Driven Routing allows high delivery ratios for time-critical data while saving network resources during the transfer of less time-critical data at the same time.
Die Digitalisierung des Bodenbeprobungsverfahrens mit einer automatisierten Generierung einer Düngeempfehlung auf Grundlage der analysierten Bodennährstoffgehalte – direkt nach Beendigung der Bodenbeprobung auf dem Acker – ist ein übergeordnetes Ziel bei der Nutzung des mobilen Feldlabors „soil2data“. Neben den Bodennährstoffanalyse-Ergebnissen sind für die Umsetzung einer automatisierten generierten Düngeempfehlung weitere Informationen notwendig.
Die Quellen dieser Informationen haben einen unterschiedlichen Ursprung. Es sind Daten aus verschiedenen Quellen vom Bewirtschafter, von Dienstleistern und vom mobilen Feldlabor, welche miteinander verknüpft und synchronisiert werden müssen. Für einen automatisierten Prozessablauf zur Generierung einer Düngeempfehlung ist die Datenorganisation eine essenzielle Voraussetzung. Die Grundlage der Empfehlung sind die Tabellenwerke der offiziellen Düngeempfehlung, die bei den für die Düngung zuständigen Behörden der Bundesländer vorliegen. In dieser Publikation werden die notwendigen Daten und der Prozessdatenfluss für die Bodenbeprobung und Düngeempfehlung-Generierung beschrieben und grafisch dargestellt.
Der wirtschaftliche Druck in der Landwirtschaft mit weniger Ressourcen höhere Erträge zu erwirtschaften hat zu einer zunehmenden Automatisierung und Industrialisierung agrartechnischer Prozesse geführt. Die Vernetzung von kooperativen Agrarprozessen verfügt über außerordentliches wirtschaftliches Potenzial, birgt aber auch große Gefahren für die Datensicherheit. Daten werden vielfach nicht durch den Dateneigentümer erfasst, sondern von beauftragten Dienstleistern (z.B. von Lohnunternehmen). Bei einer Datenerfassung durch Dienstleister sind Datenzugriffe nicht kontrollierbar und nachträgliche Datenmanipulationen nicht auszuschließen. Datensicherheitslösungen aus anderen Wirtschaftsbereiche lassen sich nur unzureichend auf die Landtechnik übertragen. Dieser Beitrag stellt ein Basiskonzept zur bereichsübergreifenden Datensicherheit in der Landtechnik vor. Das Ziel des Konzeptes ist, die Datenhoheit durch den Eigentümer zu jeder Zeit zu gewährleisten und ausgewählte Prozessdaten manipulationssicher zu dokumentieren.
Oleamide is used as a lubricant in the manufacturing and application of polypropylene (PP) medical devices. Samples of PP were prepared with 0, 1500, and 15 000 ppm oleamide content as lubricant. The samples were either left non-sterile, sterilized with ethylene oxide (ETO), γ-radiation (γ) or autoclaved (A) and stored for up to 4 weeks. To determine the oleamide bulk-to-surface distribution depending on sterilization method and storage time an extraction method and a washing technique were applied. The oleamide content was determined by gas chromatography (GC-FID) and compared with the coefficient of friction (COF). The COF dependent on the measured lubricant content at the surface. The content of lubricant on the surface depends on the type of sterilization: ETO increased the lubricant content to some extent, γ-sterilization and autoclaving reduced it. After storage, no migration of the lubricant to the surface could be detected.
The energy transition involves various challenges. One key aspect is the decentralization of power generation, which requires new actors. In order to integrate these into the system in the best possible way, there are various approaches e.g. in cooperation in citizens' initiatives or cooperatives (Dorniok, 2016).
Cooperation in general can enable the implementation of certain business models or can increase profitability by the exploitation of economies of scale (Skovsgaard & Jacobsen, 2017; Theurl, 2010). Synergy effects result from the utilization of know-how, different technologies or resources of the partners involved to complement the own competencies and services (Eggers & Engelbrecht, 2005; Sander, 2009). Cooperation exists in various industries and enable the participating companies to compensate their size-related resource deficits (Glaister & Buckley, 1996; Todeva & Knoke, 2005). This creates the opportunity to develop innovations, open up new markets, exploit newly created economies of scale and share costs and risks (Franco & Haase, 2015). In agriculture, cooperation in the form of cooperatives have been of essential importance for a long time, especially with the aim of exploiting synergy effects (Bareille et al., 2017). In the field of renewable energy development, cooperation in form of citizen cooperatives make a significant contribution to the participation of citizens in political, social and financial aspects of the energy transition (Huybrechts & Mertens, 2014). Energy cooperatives are frequently discussed as a potential actor in the energy transition and are increasingly being established to advance the common interests of stakeholders. For example, the joint operation of decentralized power generation plants can involve new actors in the energy transition through regional cooperation (Walk, 2014).
Existing biogas plants in Germany need new business models after the 20-year Renewable Energy Sources Act feed-in tariff expires. For continued operation, a business model innovation is needed, which can be realized based on the different technical utilization pathways. Cooperation can have a significant impact on the profitability of the different business models, especially by exploiting synergy effects (Karlsson et al., 2019). In addition, cooperation can help to ensure that existing plants continue to operate at all.
Currently, the most widespread use of biogas in Germany is in the coupled generation of electricity and heat. Additionally, there is the possibility of upgrading biogas to biomethane or biogenic hydrogen path (Mertins & Wawer, 2022).
Different options for cooperative business models that exist in the biogas utilization pathways are presented. The focus is on explaining the advantages of a joint approach compared to single-farm business models and identifying the relevant actors. Subsequently, drivers and barriers for the different cooperative business models are identified and classified based on 20 semi-structured interviews with plant operators in the administrative district of Osnabrück. The aim is to identify drivers and barriers for cooperative post-EEG operation. As a result, political instruments are to be found that make it possible to involve relevant actors and thus stimulate the best possible continued operation from the point of view of the energy system. The results are structured according to the PESTEL analysis. This assigns drivers and barriers to the categories political, economic, sociocultural, technological, ecological and legal (Kaufmann, 2021). The analysis of the interviews is supplemented and validated by a literature review.
Drivers and barriers for cooperative business models are manifold and can vary mainly depending on the plant and the operator.
Drivers
• Political
o Promotion of renewable energies: reduce dependence on fossil (Russian) fuels
• Economic
o Expectation of synergies (information sharing, shared risk, economies of scale)
o Planning security (fixed supply or purchase contracts)
o Access to new markets (not accessible by single-farm business models)
o Cost savings by sharing infrastructure, technology
o Positive return expectation
• Sociocultural
o Motivating, innovative environment
o Lowers barriers to participation in new markets
o Target-oriented partnerships
o Better use of capacities and strengths
o Strengthening regional value creation
• Technological
o Economies of scale (efficiency)
o Available, mature technology
o Storable, transportable gas
o Well-developed infrastructure
• Ecological
o Increase in plant efficiency
o Reduction of greenhouse gas emissions
o Promotion of the circular economy by utilization of organic waste and agricultural residues
o Improving soil quality (fermentation residues as fertilizer)
Barriers
• Political
o Competition to other renewable energies
• Economic
o Uncertainty about future development of energy markets
o Disagreements between the cooperation partners
o Lack of flexibility due to longer-term contractual obligations
o Allocation of profits
• Sociocultural
o Cooperation with current competitor
o Cultural differences and lack of trust
o Acceptance by the general public (e.g. overproduction of maize)
• Technological
o Different technology that is difficult to combine
o Data protection
• Ecological
o Competition for agricultural land
o Use of monocultures
o Emissions from plant
o Pollution from transport
• Legal
o Legal requirements and regulations
o Unfavorable regulatory environment, e.g. long permitting process
One finding is that uncertainty is a major barrier for plant operators. This includes uncertainty about regulatory frameworks and political requirements, as well as about the general development of the energy markets. In addition, social factors such as lack of reliability and disagreement about revenue sharing are a potential barrier. A key driver for the implementation of cooperative business models is the expectation of synergy effects. In addition, operators are driven by a positive expectation of returns and the responsibility for securing the energy supply in times of crisis.
The drivers identified can now be used to develop strategies to advance cooperative business models. In particular, synergy effects should be exploited so that operators can benefit from cooperation. The advantages can also be highlighted and communicated to increase acceptance among the general public. Another important step is to reduce the barriers discussed above. In order to reduce social barriers in particular, it may be advisable to include an external partner in the cooperation, such as a municipal utility that operates an upgrading plant and concludes purchase agreements with the individual partners. In addition, it would be politically expedient to provide the operators with a clear framework for the future in order to reduce uncertainties. As a further aspect, knowledge transfer on new technologies and markets should take place.
Ein modulares Framework zur Modellierung, Konfiguration und Regelung von kooperativen Agrarprozessen
(2016)
Die Komplexität vieler Agrarprozesse nimmt aufgrund von technischem Fortschritt, steigenden rechtlichen Anforderungen und Nachweispflichten beständig zu. Prozessketten werden in Kooperation verschiedener Akteure (Landwirt, Lohnunternehmer, Dienstleister, digitaler Vermittler, Behörde) gemeinsam bearbeitet, dokumentiert und geprüft. Ein ökonomisch und ökologisch ressourceneffizientes Management der Prozessausführung stellt eine Herausforderung für alle Akteure dar. Dynamische Prozessveränderungen führen vielfach zu manuellen Eingriffen in die Prozessregelung, die kostenintensive Verzögerungen verursachen. Das Forschungsvorhaben OPeRAte entwirft und evaluiert neu gestaltete Konzepte und Mechanismen zur durchgehenden Organisation und Regelung kooperativer Agrarprozesse. Es werden konfigurierbare und wiederverwendbare Module identifiziert, die sich an Prozessparameter anpassen und in artverwandten Prozessen erneut verwenden lassen. Das OPeRAte-Framework ermöglicht die Zusammenführung aller beteiligten Akteure und Ressourcen (Maschinen, Sensoren, Aktoren, Endgeräte, Server, Daten, etc.) über offene Schnittstellen. Prozessinhaber sollen durch autonome Prozesskonfigurationen und -adaptionen entlastet und durch Visualisierungen zu effizienten Entscheidungen befähigt werden. Die Konzepte dieses Beitrags dienen als Diskussionsgrundlage zur Formulierung von flexiblen und erweiterbaren Lösungsstrategien für die Landtechnik.
Aufgrund der zunehmenden Überdüngung landwirtschaftlicher Flächen durch Wirtschaftsdünger und Gärreste aus Biogasanlagen wird eine ökonomische und ökologische Vollaufbereitungstechnik zur Separation der Nährstoffe und zur Gewinnung von Prozesswasser aus Gärresten und Güllen benötigt. Das Vollaufbereitungsverfahren zur Düngemittelrückgewinnung durch mehrstufige Fest-/ Flüssigtrennung und Membrantechnik könnte diese Anforderungen durch eine intensive Optimierung der Ultrafiltrationsstufe erfüllen. Das Ziel der vorliegenden Arbeit ist die Reduktion des Energiebedarfes der Ultrafiltrationsstufe um 50 %, da diese Prozessstufe ca. 50 – 70 % des Gesamtenergiebedarfes ausmacht. Damit wäre ein wirtschaftliches Vollaufbereitungsverfahren flächendeckend einsetzbar.
Für die Optimierung der Ultrafiltrationsstufe wurden Gärreste aus 19 Biogasanlagen in einem Stichprobenumfang von 42 Proben auf ihre physikalisch/chemischen Parameter und insbesondere das separierte Zentrat auf dessen Filtrierbarkeit in einer UF-Rührzelle untersucht. Im Allgemeinen zeigte sich eine hohe Schwankungsbreite der erzielbaren Permeatflüsse. Funktionelle Zusammenhänge wurden zwischen den organischen Inhaltsstoffen, der scheinbaren Viskosität der Zentrate und dem Ultrafiltrationsfluss gefunden. Gärrestzentrate weisen ein Nicht-Newtonsches rheologisches Fließverhalten auf. Hauptsächlich Biopolymere, darunter Polysaccharide und Proteine, sind sowohl für die erzielbare Flussleistung, als auch für das rheologische Verhalten relevant. Modifikation und Verringerung dieser kritischen Biopolymerfraktion bieten damit einen möglichen Optimierungsansatz, der in der Arbeit durch Ozonierung und Komplexbildung durch pH-Wert-Verschiebung realisiert wurde. Die Optimierung der Ultrafiltration wurde in drei verschiedenen Maßstäben untersucht: Labor-, Technikums- und Pilotmaßstab. Die Ozonierung zeigte dabei positive Eigenschaften in Bezug auf Flussverbesserungen und Abbau der Strukturviskosität. Durch die Modifikation und Verkleinerung der Biopolymere wurde in allen drei Maßstäben eine Flussverbesserung um den Faktor 1,4 – 2,3 erzielt.
Durch die Ansäuerung der Zentrate zu pH-Werten unterhalb der isoelektrischen Punkte der Proteine wurde eine Komplexbildung der Biopolymere erreicht, die bisher nur für Modellsysteme in der Literatur dargestellt wurde. Durch die Vergrößerung der Partikel um den Faktor 7 – 17 bei der Komplexierung wurde in allen drei Versuchsmaßstäben eine Verbesserung der Flussleistung um ca. Faktor 2 erzielt.
Die Temperaturerhöhung wurde in Rohrmodulen im Technikums- und Pilotmaßstab untersucht. Dabei zeigte sich bei einer Temperaturerhöhung von 40 – 45 °C auf 60 – 75 °C eine Verbesserung der Flussleistung um den Faktor 1,4, die auf die sinkende Permeatviskosität und eine verbesserte Deckschichtkontrolle zurückgeführt wurde. Die Kombination aus Ozonierung und hoher Prozesstemperatur zeigte synergetische Ergebnisse, da sowohl durch die hohe Prozesstemperatur, als auch durch die Ozonierung die Zentratviskosität herabgesetzt wurde. Dadurch wurde die Reynoldszahl im Rohrmodul erhöht, was einen positiven Einfluss auf die Filtrierbarkeit zeigte. Durch die erhöhte Reynoldszahl bestand die Möglichkeit, die Strömungsgeschwindigkeit im Ultrafiltrationsloop zu verringern, was einen wesentlichen Einfluss auf den Energiebedarf der Ultrafiltrationsstufe hat. Im Rahmen der Untersuchungen wurde eine sehr gute Übertragbarkeit zwischen den Ergebnissen der verschiedenen Maßstäbe festgestellt. Die Ergebnisse des Labormaßstabes erlauben eine Vorhersage der Membranflüsse auf großtechnische Ultrafiltrationsanlagen. Trotz der hohen Diversität der beprobten Anlagen ermöglichten die Ergebnisse aufgrund des hohen Stichprobenumfanges mathematische Zusammenhänge zwischen den Biopolymeren und der temperaturabhängigen scheinbaren und temperaturabhängigen Viskosität von Gärrestzentraten.
Bei der energetischen Bilanzierung der Ultrafiltrationsanlage wurden an beiden Standorten in Summe sechs Verfahrensmodifikationen gefunden, die eine Reduktion des Energiebedarfes um ≥ 50 % ermöglichen. Diese Projektzielstellung wurde durch eine hohe Prozesstemperatur bei gleichzeitig reduzierter Überströmungsgeschwindigkeit, Ozonierung bei gleichzeitig hoher Prozesstemperatur und durch die Ansäuerung erreicht. Der niedrigste Energiebedarf wurde durch die Ozonierung bei gleichzeitig hoher Prozesstemperatur und reduzierter Überströmungsgeschwindigkeit erreicht. Der Energiebedarf wurde bei dieser Verfahrensmodifikation um 54 – 59 % reduziert.
In einer abschließenden Wirtschaftlichkeitsbetrachtung einer 50000 t∙a-1 Anlage an einem deutschen Standort wurde durch die KWK geförderte Wärmenutzung der wirtschaftlichste Fall für eine hohe Prozesstemperatur bei gleichzeitig reduzierter Überströmungsgeschwindigkeit festgestellt. Die spezifischen Gesamtkosten des volltechnischen Verfahrens wurden von 8 – 8,50 € pro Kubikmeter aufbereitetem Gärrest auf 5 – 5,50 € um 33,5 – 37,8 % reduziert. Nach Angaben der kooperierenden Firma ist damit ein wirtschaftlicher Anlagenbetrieb möglich.
Today's development of client-side web applications is based on one of the JavaScript-frameworks, such as Angular or React. The excessive dependencies that arise in the ecosystem from the Node-Package-Manager increase the security risk and the dependency of your own web application on third-party packages. Moreover, the frameworkless approach proposes a renaissance of classic web development, because it strives to avoid external dependencies as far as possible and to fall back on the standards. Whether the implementation achieves maintainability and security of frameworks is questionable. Therefore, it makes sense to research which core concepts of the frameworks meet the requirements for maintainability and security and how these are implemented. The novelty is that the concepts to be explored are moved to a standard in order to ensure the developer efficiency, security, performance and maintainability in the long term. This allows existing approaches to focus on other essential features.
Die Maschine ist in der Lage faserverstärkte thermoplastische Kunststoffrohre herzustellen. Entwickelt und konstruiert wurde die Maschine als Open Source Hardware Projekt. Das bedeutet die Baupläne und Zeichnungen werden frei zur Verfügung gestellt. Heimwerker und andere Interessierte sollen dadurch die Möglichkeit bekommen faserverstärkte Rohre eigenständig und günstig herzustellen. Die Entwicklung und Konstruktion der Wickelmaschine ist das Ergebnis einer Masterarbeit an der Hochschule Osnabrück.
Reibermüdung ist ein Phänomen, welches an den Kontakträndern von in Berührung ste-henden, kraftübertragenden Bauteilen beobachtet werden kann. Typische Maschinenele-mente, die in diesem Mode versagen können, sind z. B. die Schwalbenschwanzverbindung sowie ihre Ableger, die mehrzahnigen Tannenbaumfixierungen. In der Literatur beschrie-bene Untersuchungen weisen für Flachproben mit Reibbrücken ein Lebensdauerverhalten mit einem lokalen Minimum über der Anpresskraft der Reibbrücken aus. Die vorliegende Arbeit untersucht mithilfe des Sines-Ermüdungskriteriums, kombiniert mit Grenzwerten gemäß FKM-Richtlinie, ob ein solches Verhalten auch für die Schwalbenschwanzverbin-dung zutrifft. Im Gegensatz zur Reibbrückenanordnung mit separater Einleitung von kon-stanter Pressung und Längslastamplitude fluktuieren bei der Schwalbenschwanzverbin-dung die Anpresskraft und Zugkraft mit der einzigen am Hals eingeleiteten Last.
A recently published study of high temperature nitridation of iron chromium aluminum alloys (FeCrAl) at 900°C in N2–H2 has redundantly shown the formation of locally confined corrosion pockets reaching several microns into the alloy. These nitrided pockets form underneath chromia islands laterally surrounded by the otherwise protective alumina scale. Chromia renders a nitrogen‐permeable defect under the given conditions and the presence of aluminum in the alloy. In light of these findings on FeCrAl, a focused ion beam–scanning electron microscope tomography study has been undertaken on an equally nitrided FeNiCrAl sample to characterize its nitridation corrosion features chemically and morphologically. The alloy is strengthened by a high number of chromium carbide precipitates, which are also preferential chromia formation sites. Besides the confirmation of the complete encapsulation of the corrosion pocket from the alloy by a closed and dense aluminum nitride rim, very large voids have been found in the said pockets. Furthermore, metallic particles comprising nickel and iron are deposited on top of the outer oxide scale above such void regions.
The simulation of the residual stress field achieved by shot peening cannot be carried out on component-large models. Hence, an efficient unit cell model for the simulation of the shot peening process is developed. The model allows both, the simple inclusion of a pre-stress and the evaluation of the up-arching of the Almen strip. For this purpose, generalized coupling constraints for the periodic boundaries of the unit cell are developed. These allow for displacement and rotation of the coupled boundaries relative to each other. In the coupling constraints, this is accomplished by respective variables, which can either be prescribed to the analysis or read out as a result from the analysis. Hence, the unit cell can expand, shear, bend and twist under driving forces like, e. g., residual stresses or thermal effects. At the same time, deformations of the cell’s periodic boundary pairs are kept congruent by the generalized coupling. The ability to cover expansion is novel regarding known periodic boundary conditions. Also, the application of a generalized unit cell to shot peening is new.
Results obtained with the generalized unit cell are displayed, demonstrating its capabilities: A fundamental analysis of the residual stress field from shot peening shows inhomogeneities at a fatigue relevant level to be inevitable. A validation of the model was done by comparison with experimental Almen strip shot peening tests reported in literature. Shot peening under pre-stress is demonstrated and its results in terms of residual stress are evaluated. The application of the generalized unit cell is not limited to shot peening.
With the increasing size and complexity of embedded systems, the impact of software on energy consumption is becoming more important. Previous research focused mainly on energy optimization at the hardware level. However, little research has been carried out regarding energy optimization at the software design level. This paper focuses on the software design level and addresses the gap between software and hardware design for embedded systems. This is achieved by proposing a framework for software design patterns, which takes aspects of power consumption and time behavior of the hardware level into account. We evaluate the expressiveness of the framework by applying it to well-known and novel design patterns. Furthermore, we introduce a dimensionless numerical efficiency factor to make possible energy savings quantifiable.
While developing traffic-based cognitive enhancement technology (CET), such as bike accident prevention systems, it can be challenging to test and evaluate them properly. After all, the real-world scenario could endanger the subjects’ health and safety. Therefore, a simulator is needed, preferably one that is realistic yet low cost. This paper introduces a way to use the video game Grand Theft Auto V (GTA V) and its sophisticated traffic system as a base to create such a simulator, allowing for the safe and realistic testing of dangerous traffic situations involving cyclists, cars, and trucks. The open world of GTA V, which can be explored on foot and via various vehicles, serves as an immersive stand-in for the real world. Custom modification scripts of the game give the researchers control over the experiment scenario and the output data to be evaluated. An off-the-shelf bicycle equipped with three sensors serves as a realistic input device for the subject’s movement direction and speed. The simulator was used to test two early-stage CET concepts enabling cyclists to sense dangerous traffic situations, such as trucks approaching from behind the cyclist. Thus, this paper also presents the user evaluation of the cycling simulator and the CET used by the subjects to sense dangerous traffic situations. With the knowledge of the first iteration of the user-centered design (UCD) process, this paper concludes by naming improvements for the cycling simulator and discussing further research directions for CET that enable users to sense dangerous situations better.
The expiry of national subsidies for biogas in Germany means that new business models are needed. Furthermore, hydrogen is expected to make a significant contribution to the energy transition in the future. Therefore, potentials for the production of hydrogen from biogas are identified in this study. A joint upgrading infrastructure is developed that models the collaborative upgrading of biogas to hydrogen for existing biogas plants with subsequent gas grid injection. Furthermore, regions are identified that are particularly suitable as pioneer regions in Germany due to a high potential for green hydrogen production and comparatively low costs for hydrogen production. The modeling shows that collaborative upgrading achieves significant cost savings compared to single-farm upgrading. Furthermore, the potential for hydrogen production from biogas and the costs of upgrading differ significantly within the administrative districts in Germany.
Der Einsatz des ISOBUS zeigt, dass Bedarf an Datenkommunikation auch auf landtechnischen Gespannen besteht. Jedoch wird auch deutlich, dass der ISOBUS mit seiner relativ geringen Datenrate keine Ressourcenreserven für neue Anwendungen aufweist. Aus diesem Grund ist der Wechsel der Übertragungstechnologie für die Weiterentwicklung des ISOBUS zu einem High-Speed ISOBUS notwendig. Eine geeignete und im weiteren Verlauf näher betrachtete Technologie für den Wechsel ist Ethernet. Es wird gezeigt welche Potenziale für den ISOBUS durch Ethernet entstehen und welche Herausforderungen dabei bewältigt werden müssen.
High Performance and Privacy for Distributed Energy Management: Introducing PrivADE+ and PPPM
(2018)
Distributed Energy Management (DEM) will play a vital role in future smart grids. An important and often
overlooked factor in this concept is privacy. This paper presents two privacy-preserving DEM algorithms
called PrivADE+ and PPPM. PrivADE+ uses a round-based energy management procedure for switchable and
dynamically adaptable loads. PPPM utilises on the market-based PowerMatcher approach. Both algorithms
apply homomorphic encryption to privately gather aggregated data and exchange commands. Simulations
show that PrivADE+ and PPPM achieve good energy management quality with low communication requirements
and without negative influences on robustness.
The usage of high-level synthesis (HLS) tools for FPGAs has increased significantly over the last years since they matured and allow software programmers to take advantage of reconfigurable hardware technology.
Most HLS tools employ methods to optimize for loops, e. g. by unrolling or pipelining them. But there is hardly any work on the optimization of while loops. This comes at no surprise since most while loops have loop-carried dependences involving the loop condition which result in large recurrence cycles in the dataflow graphs. Therefore typical while loops cannot be parallelized or pipelined.
We propose a novel transformation which allows to optimize while loops nested within a for loop. By interchanging the two loops, it is possible to pipeline (and thereby parallelize) the inner loop, resulting in a reduced execution time. We present two case studies on different hardware platforms and show the speedup factors - compared to a host processor and to an unoptimized hardware implementation - achieved by our while loop optimization method.
Power consumption has become a major design constraint, especially for battery-powered embedded systems. However, the impact of software applications is typically considered in later phases, where both software and hardware parts are close to their finalization. Power-related issues must be detected in early stages to keep the development costs low, satisfy time-to-market, and avoid cost-intensive redesign loops. Moreover, the variety of hardware components, architectures, and communication interfaces make the development of embedded software more challenging. To manage the complexity of software applications, approaches such as model-driven development (MDD) may be used. This article proposes a power-estimation approach in MDD for software application models in early development phases. A unified modeling language (UML) profile is introduced to model power-related properties of hardware components. To determine the impact of software applications, we defined two analysis methods using simulation data and a novel in-the-loop concept. Both methods may be applied at different development stages to determine an energy trace, describing the energy-related behavior of the system. A novel definition of energy bugs is provided to describe power-related misbehavior. We apply our approach to a sensor node example, demonstrate an energy bug detection, and compare the runtime and accuracy of the analysis methods.
Im Modul Algorithmen und Datenstrukturen ist das Inverted Classroom Modell mit der Scrum-Methodik kombiniert. Die Studierenden erarbeiten die Inhalte des Moduls im Lernmanagementsystem mithilfe von Videoaufzeichnungen, digitalem Skript und interaktiven Übungseinheiten. Der Wegfall der klassischen Vorlesung ermöglicht mehr Zeit zur Beantwortung von Fragen, Diskussionen sowie der Reflexion des Erlernten durch Hörsaal-Quizze. Die Themen der Veranstaltung werden vorgegeben, aber die Bearbeitung erfolgt individuell und die Studierenden gestalten ihre eigenen Lernprozesse. Theorie und Praxis der Veranstaltung werden analog zur Scrum-Methodik in mehrwöchigen Sprints im Team bearbeitet. Die Aufgaben sind in den Kontext einer virtuellen Betriebssystemumgebung eingebettet und bauen aufeinander auf. Das Softwareprojekt wird hierzu als GitLab-Repository zur Verfügung gestellt. Die Verwendung von Git und integrierten Test-Routinen entsprechen einer realitätsnahen Vorgehensweise, wie sie in der Softwareentwicklung allgemein gängige Praxis ist.
Innovationen sind die stärksten Gestaltungsfaktoren für eine neue vielversprechende Zukunft, da sie die wichtigsten Treiber für Wachstum und Ertrag in unserer Wirtschaft sind. Die aktuelle Zeitenwende zeigt uns sehr deutlich, dass wir ohne Innovationen bzw. Veränderungen und Anpassungen kaum noch wettbewerbsfähig bleiben, sowohl als Nation bzw. als Gesellschaft und insbesondere als Unternehmen.
Die hohe Dynamik und Komplexität der wirtschaftlichen und sozialen Prozesse setzt neue Maßstäbe an die Innovationsstrategien von Institutionen und Unternehmen.
Neue Technologien, neue Märkte, neues Kundenverhalten und der stetige Wandel sowohl in der Arbeitswelt als auch in unserem gesellschaftlichen Umfeld, wie z.B. die Digitalisierung, zeigen uns, dass allein eine Produktinnovation als solche heute nicht mehr ausreicht. Unter den genannten Randbedingungen müssen Innovationen auch in der Gestaltung von Geschäftsprozessen und Realisierung der "Work-Life-Balance" neu erdacht bzw. überprüft werden.
Der Vorsprung innovativer Produkte im viralen Wettbewerb ist oft nur kurz. Ein ganzheitliches Innovationsmanagement hat alle Bereiche des Unternehmens einzubeziehen und führt zu neuen Geschäftsmodellen, die etablierte Geschäftspraktiken verdrängen, ebenso tauchen durch neue Technologien in immer stärkerem Maße neue Anbieter auf, die die Spielregeln in den Märkten verändern.
Der 1. Deutsche Innovations-Kongress will Impulse setzen, Best-Practice-Modelle als Vorbilder anbieten und im Austausch zwischen den Referent*innen und den Teilnehmer*innen neue Wege bzw. Perspektiven eröffnen.
Wir freuen uns auf alle Teilnehmer*innen und den Erfahrungsaustausch, um aktuelle und nachhaltige Innovations-Impulse zu setzen und neue Wege erfolgversprechende Wege zu beschreiben, womit die bereits fruchtbaren Kooperationen zwischen Wirtschaft und Wissenschaft im Großraum Osnabrück noch weiter belebt werden soll.
Aktuell tragen auch 8 Studierendengruppen des Masterstudiengangs "Entwicklung und Produktion" der Hochschule Osnabrück in der Fakultät I u. I im Rahmen des Moduls "Innovationsmanagement" in Kooperation mit Unternehmen aus der Region durch die Entwicklung neuer innovativer Produkte zum Erfolg des Kongresses bei. Die Zwischenergebnisse dazu werden in einer Poster-Ausstellung präsentiert. Die Innovationsprojekte werden unter der Leitung von Prof. Dr. Jens Schäfer durchgeführt.
Der Beitrag beschreibt das Veranstaltungskonzept ICMScrum, welches die Ideen des Inverted Classroom mit Elementen aus Scrum kombiniert. Beginnend mit Anforderungen des aktuellen und zukünftigen Arbeitsmarktes werden die zentralen Elemente der Methodik anhand eines praktizierten Beispiels vorgestellt und kritisch diskutiert.
Der Beitrag beschreibt die Entwicklung eines Inverted Classroom Konzeptes für ein Informatik-Grundlagenfach an einer Hochschule. Basierend auf Vorlesungsaufzeichnungen und Vorlesungsskript wurde hierbei besonderes Augenmerk auf die Gestaltung der gemeinsamen Präsenzzeit zwischen Studierenden und Lehrenden gelegt. Durch zahlreiche aktivierende Elemente sind die Studierenden hierbei gefordert, ihren Lernprozess selbst zu gestalten, um somit über die fachlichen Kompetenzen des Faches hinaus auch überfachliche Kompetenzen, wie beispielsweise Kommunikations- und Kooperationskompetenz, Selbstlernkompetenz und Eigenverantwortung zu trainieren.
Der Beitrag beschreibt als Werkstattbericht die Kombination des Inverted Classroom Modells mit der agilen Entwicklungsmethodik von Scrum zu einem Veranstaltungskonzept für ein Grundlagenfach der Informatik. Neben der fachspezifischen Lehre wird dadurch das Vorgehen die in der Informatik immer wichtiger werdende agile Entwicklungsmethodik zum überfachlichen Kompentenzerwerb adressiert. Der Beitrag stellt die Umsetzung der agilen Lehrmethodik vor und gibt erste Rückmeldungen aus Sicht von Studierenden und Lehrenden.
Die Anforderungen an zukünftige Teilnehmende eines Arbeitsmarktes verändern sich. Das von Frithjof Bergmann begründete Prinzip der Neuen Arbeit (Bergmann, 2004) ist aktuell Gegenstand zahlreicher Diskussionen und Debatten über aktuelle und zukünftige Arbeitswelten. Die sich daraus ergebenden Kompetenzanforderungen passen mit der Lehre in Hochschulen wenig zusammen. Zunehmend werden agile Lernszenarien diskutiert.
Das Inverted Classroom Modell (ICM) erfreut sich seit einigen Jahren großer Beliebtheit in der Hochschullehre. Aus Studierendensicht ist die Teilnahme an einer ICM-Veranstaltung aber eine Herausforderung. Für ein erfolgreiches Lernen sind insbesondere personale Kompetenzen wie Selbstmotivation, Durchhaltevermögen und Selbstregulationskompetenz erforderlich (Pöpel & Morisse, 2019). Um diesem Umstand entgegenzuwirken, wurde vom Autor ICM mit Ideen aus Scrum für eine Informatik-Lehrveranstaltung kombiniert (siehe auch (Morisse & Heidemann, 2021)). Die Wirkung von Scrum kann sich nur entfalten, wenn die Arbeit in einzelne Sprints aufgeteilt wird und bei der Bearbeitung der Sprints auch die eigene Zusammenarbeit im Rahmen einer Retrospektive kritisch reflektiert wird. Zu diesem Zweck wird der gesamte Inhalt der Lehrveranstaltung in eine Anzahl von thematischen Blöcken aufgeteilt, die als Lehr- und Lerninhalte für die Lern-Sprints der Scrum-Umsetzung werden. Für jeden Themenblock müssen die theoretischen Inhalte erarbeitet sowie eine eigenständige Zusammenfassung formuliert werden. Ergänzend dazu wurde ein Software-Produkt definiert, in dessen Rahmen die theoretischen Inhalte einfließen konnten.
Die Durchführung eines Reviews und einer Retrospektive schließen bei Scrum einen Sprint ab. Genau dies lässt sich auch im Hochschulkontext sehr gut als Feedback-Instrument durchführen. Das Review bestand in der Inspektion der entwickelten Software. Mit der Retrospektive wird die eigene Zusammenarbeit im Team kritisch reflektiert. Ein besonderes Augenmerk verdient der kommunikative Stil zwischen Lehrenden und Studierenden. Bei einem Veranstaltungskonzept, welches getragen wird von Interaktion und Diskussion, kommt einer empathischen und wertschätzenden Kommunikation eine besondere Bedeutung zu. Das dies in der vorgestellten Veranstaltung scheinbar gelungen ist, zeigt das Zitat eines der teilnehmenden Studierenden „Ich freue mich immer auf die Review-Termine“. Zur Erinnerung: Das Review ist der Termin zur Vorstellung des erreichten Ergebnisses, also eher ein Prüfungs-Setting, bei dem Studierende ihre Arbeit präsentieren. Weitere positive Resonanzmerkmale durch die Studierenden waren die hoffnungsvollen Fragen, ob denn die Veranstaltungen im kommenden Semester auch nach ICMScrum organisiert sind.
The present study gives an overview of recent investigations dealing with the fatigue behaviour of the tempered martensitic steel 50CrMo4 (Fe-0.5wt%C-1wt%Cr) in the HCF and VHCF regime by taking into account a variation in material strength, by modifying the heat treatment parameters. The parameters for the tempering treatment were adapted to receive two material conditions with 37HRC and 57HRC, respectively. Subsequently, fatigue specimens were machined from the heat-treated bars for fatigue tests in an ultrasonic (f=20000Hz) and a resonance (f=95Hz) fatigue testing machine under fully reversed loading (R=-1) at laboratory air atmosphere. It was found that the dominant fatigue and fracture mechanisms change with increasing material strength. For 37HRC moderate-strength specimens crack initiation was shown to occur on the specimen surface within Cr depleted bands (segregation bands) as the dominant fatigue damage mechanism. Contrary to that, only internal crack initiation at non-metallic inclusions was observed for the high strength 57HRC condition. Furthermore, the completely different crack initiation mechanisms of the two heat treatment conditions were assessed by applying the Murakami approach relating the fatigue limit with the size of non-metallic inclusions.
Various overoxidized poly(1H-pyrrole) (PPy), poly(N-methylpyrrole) (PMePy) or poly(3,4-ethylenedioxythiophene) (PEDOT) membranes incorporated into an acrylate-based solid polymer electrolyte matrix (SPE) were directly electrosynthesized by a two-step in situ procedure. The aim was to extend and improve fundamental properties of pure SPE materials. The polymer matrix is based on the cross-linking of glycerol propoxylate (1PO/OH) triacrylate (GPTA) with poly(ethylene glycol) diacrylate (PEGDA) and lithium bis(trifluoromethanesulfonyl)imide (LiTFSI) as a conducting salt. A self-standing and flexible polymer electrolyte film is formed during the UV-induced photopolymerization of the acrylate precursors, followed by an electrochemical polymerization of the conducting polymers to form a 3D-IPN. The electrical conductivity of the conducting polymer is destroyed by electrochemical overoxidation in order to convert the conducting polymer into an ion-exchange membrane by introduction of electron-rich groups onto polymer units. The resulting polymer films were characterized by scanning electron microscopy, cyclic voltammetry, electrochemical impedance spectroscopy, differential scanning calorimetry, thermal analysis and infrared spectroscopy. The results of this study show that the combination of a polyacrylate-matrix with ion selective properties of overoxidized CPs leads to new 3D materials with higher ionic conductivity than SPEs and separator or selective ion-exchange membrane properties with good stability by facile fabrication.
Auf vielen Landmaschinen wird der CAN-Bus zur Übertragung von Daten zwischen Sensoren, Aktoren und Steuergeräten genutzt. Anwendungen wie Rückfahrkameras und Bird-ViewAnzeigen erfordern in der Regel zusätzliche, breitbandige Kommunikationskanäle. Dieser Beitrag untersucht, inwieweit ein gemeinschaftliches Kommunikationsmedium auf Basis von Ethernet zur Realisierung aktueller und zukünftiger Anwendungen auf Landmaschinen genutzt werden kann. Zusätzlich wird der Einsatz aktueller Technologien wie Audio/Video Bridging, Time-Sensitive Networking und Wifi auf einem Landmaschinengespann untersucht und bewertet.
This paper presents a framework for OMNeT++ which includes time synchronization model for WLANs. Synchronization is based on the Generalized Precision Time Protocol (gPTP) standard, which aims to achieve an accuracy of less than 100 nanoseconds. The presented model is developed and implemented in OMNeT++, a discrete event network simulator, using its INET library. A new type of WLAN node is modeled which supports time synchronization at the Link layer. A clock module for WLAN nodes is also modeled which implements variable clock drift to simulate noise interference in clock frequency oscillators. Simulations with our WLAN nodes are done and the results show that using gPTP based time synchronization in wireless networks, accuracy of ±3ns can be achieved.
In der Agrartechnik steht Landwirten und Lohnunternehmern eine steigende Anzahl digitaler Dienste zur Verfügung. Eine Modellierung, Ausführung und Steuerung von kooperativen Agrarprozessen ist aufgrund der verschiedenen, zueinander inkompatiblen IT-Lösungen nur eingeschränkt möglich. Es fehlt ein einheitlicher Standard zur Beschreibung dieser Prozesse. Der Beitrag stellt die Beschreibung von Agrarprozessen mit der Business Process Model and Notation (BPMN) dar. Domänenexperten (z.B. Landwirte, Lohnunternehmer, digitale Dienstanbieter) können kooperative Prozessabläufe plattformübergreifend gestalten, ohne dabei Prozessinterna mit anderen Akteuren teilen zu müssen. Als Brücke zwischen der kooperativen Prozessebene und der ausführenden Maschinenebene wird im Beitrag Message Queue Telemetry Transport (MQTT) eingesetzt: Mittels MQTT können Anweisungen und Informationen (z.B. Arbeitsaufträge, Statusdaten) zwischen beiden Ebenen in Echtzeit vermittelt und verarbeitet werden.
The Internet of Things (IoT) is the enabler for new innovations in several domains. It allows the connection of digital services with real, physical entities. These entities are devices of different categories and range in size from large machinery to tiny sensors. In the latter case, devices are typically characterized by limited resources in terms of computational power, available memory and sometimes limited power supply. As a consequence, the use of security algorithms requires expert knowledge in order for them to work within the limited resources. That means to find a suitable configuration for the algorithms to perform properly on the device. On the other side, there is the desire to protect valuable assets as strong as possible. Usually, security goals are captured in security policies, but they do not consider resource availability on the involved device and their consumption while executing security algorithms. This paper presents a resource aware information exchange model and a generation tool that uses high-level security policies as input. The model forms the conceptual basis for an automated security configuration recommendation system.
Reliable information processing is an indispensable task in Smart City environments. Heterogeneous sensor infrastructures of individual information providers and data portal vendors tend to offer a hardly revisable information quality. This paper proposes a correlation model-based monitoring approach to evaluate the plausibility of smart city data sources. The model is based on spatial, temporal, and domain dependent correlations between individual data sources. A set of freely available datasets is used to evaluate the monitoring component and show the challenges of different spatial and temporal resolutions.
Knowledge of the maximum friction coefficient µmax between tire and road is necessary for implementing autonomous driving. As this coefficient cannot be measured via existing serial vehicle sensors, µmax estimation is a challenging field in modern automotive research. In particular, model-based approaches are applied, which are limited in the estimation accuracy by the physical vehicle model. Therefore, this paper presents a data-based µmax estimation using serial vehicle sensors. For this purpose, recurrent artificial neural networks are trained, validated, and tested based on driving maneuvers carried out with a test vehicle showing improved results compared to the model-based algorithm from previous works.
Pregnancy loss is the most common complication in pregnancy. Yet those who experience it can find it challenging to disclose this loss and feelings associated
with it, and to seek support for psychological and physical recovery. We describe our process for
interleaving interviews, theoretical development, speculative design, and prototyping Not Alone to
explore the design space for online disclosures and
support seeking in the pregnancy loss context.
Interviews with 27 women who had experienced pregnancy loss resulted in theoretical concepts such as
“network-level reciprocal disclosure” (NLRD). We discuss how interview findings informed the design of
the Not Alone prototype, a mobile application aimed at enabling disclosure and social support exchange among those with pregnancy loss experience. The Not Alone prototype embodies concepts that facilitate NLRD: perceptions of homophily, anonymity levels, and selfdisclosure by talking about one’s experience and engaging with others’ disclosures. In future work, we will use Not Alone as a technology probe for exploring
NLRD as a design principle.
Biogas plants produce nutrient rich digestates as side products, which are usually used as local fertilisers. Yet the large amount and regional gradients of biogas plants in Germany necessitate management, conditioning, and transportation of digestates, in order to follow good fertilising procedure and prohibit local over-fertilisation. With a membrane-based treatment chain, i.e. centrifugation, ultrafiltration, and reverse osmosis, digestates can be separated into a solid N,P-fertiliser, a liquid N,K-fertiliser, and dischargeable water. Up to now, the high energy demand of the process chain, in particular the ultrafiltration step, limits the economical market launch of the treatment chain. A reduction of the energy demand is challenging, as digestates exhibit a high fouling potential and ultrafiltration fluxes differ considerably for digestates from different biogas plants. In a systematic screening of 28 digestate samples from agricultural biogas plants and 6 samples from bio-waste biogas plants, ultrafiltration performance could be successfully linked to the rheological properties of the digestate’s liquid phase and to its macromolecular biopolymer concentration. By modification of the fluid characteristics through enzymatic treatment, ultrafiltration performance was considerably increased by factor 2.8 on average, which equals energy savings in the ultrafiltration step of approximately 45%. Consequently, the energy demand of the total treatment chain decreases, which offers potential for further rollout of the membrane-based digestate treatment.
Aufgrund der Folgen des Klimawandels bekommen klimaanpassende Maßnahmen immer mehr Bedeutung. Durch versiegelte Flächen und Starkregen können einerseits Überschwemmungen entstehen, anderseits führen Hitze und wenig Niederschlag zu Trockenheit und Wassermangel. Deswegen ist es wichtig, klimaanpassende Maßnahmen zu fördern und diese den Bürgern näher zu bringen.
Das Ziel dieser Bachelorarbeit ist, eine Webanwendung zu entwickeln, die die Bürger zur Nutzung von Regenwasser und zu Entsiegelungen als klimaanpassende Maßnahmen motiviert, indem Nutzern eine individuelle Berechnung der Kosten und des Nutzens angeboten wird. Dafür folgt die Entwicklung der Webanwendung dem menschzentrierten Gestaltungsprozess, um eine hohe Benutzerfreundlichkeit zu erreichen. Es werden Usability-Tests als Evaluation durchgeführt.
Die Ergebnisse der Evaluation zeigen, dass die entwickelte Webanwendung die Nutzer zufriedenstellt und die Anforderungen erfüllt. Der menschzentrierte Gestaltungsprozess ist für das betrachtete Themenfeld ein wirksames und zielführendes Vorgehen bei der Entwicklung interaktiver Systeme.
Optimised Nutrient Recovery from Biogas Digestate by Solid/Liquid Separation and Membrane Treatment
(2019)
Anaerobic digestion products of agricultural biogas plants are characterised by high nitrogen, phosphorus, and potassium content. In three scale-up steps, a membrane based digestate treatment process of solid-liquid-separation, ultrafiltration, and reverse osmosis for nutrient recovery was investigated. Lab-scale trials delivered a very good understanding of fluid properties and subsequent ultrafiltration performance, which is the limiting process step in terms of energy demand and operation costs. In semi-technical experiments, optimisation, and design parameters were developed, which were subsequently applied to pilot-scale tests at two full-scale biogas plants. The process optimisation resulted in 50 % energy reduction of the ultrafiltration step. About 36 % of the sludge volume was recovered as dischargeable water, 20 % as solid N/P-fertiliser, and 44 % as liquid N/K-fertiliser.
Due to the resource-constrained nature of embedded systems, it is crucial to support the estimation of their power consumption as early in the development process as possible. Non-functional requirements based on power consumption directly impact the software design, e.g., watt-hour thresholds and expected lifetimes based on battery capacities. Even if software affects hardware behavior directly, these types of requirements are often overlooked by software developers because they are commonly associated with the hardware layer. Modern trends in software engineering such as Model-Driven Development (MDD) can be used in embedded software development to evaluate power consumption-based requirements in early design phases. However, power consumption aspects are currently not sufficiently considered in MDD approaches. In this paper, we present a model-driven approach using Unified Modeling Language profile extensions to model hardware components and their power characteristics. Software m odels are combined with hardware models to achieve a system-wide estimation, including peripheral devices, and to make the power-related impact in early design stages visible. By deriving energy profiles, we provide software developers with valuable feedback, which may be used to identify energy bugs and evaluate power consumption-related requirements. To demonstrate the potential of our approach, we use a sensor node example to evaluate our concept and to identify its energy bugs.
Der nachfolgende Projektbericht, welcher im Rahmen des Masterprojektes und des Moduls „Bildgebende Sensortechnik“ erarbeitet wurde, ist wie folgt den beiden Fächern zuzuordnen.
Die Kapitel, welche sich mit der Inbetriebnahme und den Umgang des SICK RMS320 Radarsensors beschäftigen, sind Teil des Masterprojektes. Dies betrifft die Kapitel 2.2, 4.1, 4.3 und in Teilen das Kapitel 4.5.
Dem Modul „Bildgebende Sensortechnik“ sind hingegen die Messung des Einflusses von Kleidung auf die Erkennungsfähigkeit eines Menschen sowie die Radarmessungen der verschiedene Prüfkörper zuzuordnen. Dies wird in den Kapiteln 2.3, 3, 4.2, 4.4 und 4.5 behandelt.
Die „Grundlagen der Radartechnik“ sind für beide Teile gleichbedeutend wichtig.
Protection and privacy of data in cooperative agricultural processes : the challenges of the future
(2016)
In agriculture, the growing usage of sensors, smart mobile machinery and information systems results in high volumes of data. The data differs in accuracy, frequency, volume, type and, most importantly, owner of the information. However, cooperative processes and big data analyses require access to comprehensive amounts of data for successful agricultural operation and reasoning. In some processes instructed contractors even gather data belonging to other owners and use it for machinery operation optimisation and accounting (e.g. yield in maize harvest). Today’s approach of data handling has a high potential to conflict with European and national regulations for data protection and privacy. This article presents a concept for continuous data protection and privacy in cooperative agricultural processes. The concept aims at ensuring data sovereignty for the owner while making as much data usable for process operation and big data research at the same time. Briefly explained, owners pick a collection of data and create usage licenses for other players. The licenses specify time-limited and / or position-bound access to the data collection. Privacy environments in soft- and / or hardware protect access rights on end user devices, data share hubs and machinery devices such as agricultural terminals. In addition to access right configurations, digital signatures prevent data manipulation when cooperative players capture data during processes. Socalled signature boxes represent certificated soft- or hardware components, which are located close at data sources (e.g. as hardware attached to sensors on mobile machinery) and bind the data captured with digital signatures.
Currently, soil nutrient analysis involves two separate processes for soil sampling and nutrient analysis: 1. field soil sampling and 2. laboratory analysis. These two - separate - main work processes are combined and conceptualised for a mobile field laboratory so that soil sampling and analysis can be carried out simultaneously in the field. The module-based field laboratory "soil2data" can carry out these two main work processes in parallel and consists of 5 different task-specific modules that build on each other: app2field, field2soil, app2liquid, liquid2data and data2app. The individual modules were designed and built for the sub-process steps and adapted to the special features of the mobile field laboratory "soil2data". The biggest advantage is that the analysis results are available immediately, and a fertiliser recommendation can be generated instantly. For further analyses, the results are stored in the data cloud. The soil material remains in the field. In the ongoing project "Prototypes4soil2data", the mobile field laboratory soil2data is being further developed into a prototype with a modular structure.
Long Range Wide Area Network (LoRaWAN) operates in the ISM band with 868 MHz, where the Time on Air (ToA) is regulated in the EU to 1 %. LoRaWAN nodes use the Adaptive Data Rate (ADR) algorithm to adapt their data rates during operation. The standard ADR algorithm works well with stationary nodes, however is very slow in the adaptation for mobile nodes. This paper introduces a new ADR algorithm for LoRaWAN that is supported by higher level meta-data for sensor streams, namely Quality of Information (QoI). With the help of QoI it is possible to provide additional information to the new ADR algorithm, reducing the convergence time and thus improving the Packet Delivery Ratio (PDR) of data from mobile sensor nodes. The new algorithm requires only modifications on network server side and keeps backwards compatibility with LoRaWAN nodes. Results show a significant better PDR compared to the standard ADR in scenarios with a limited number of mobile nodes.
In this experimental work, the quasi static and fatigue properties of a 40 wt.% long carbon fiber reinforced partially aromatic polyamide (Grivory GCL-4H) were investigated. For this purpose, microstructural parameter variations in the form of different thicknesses and different removal directions from injectionmolded plates were evaluated. Mechanical properties decreased by increasing misalignment away from the melt flow direction. By changing the specimen thickness, no change in the general fiber distribution pattern transversal and normal to the axis of melt flow was observed. It has shown that with increasing specimen thickness the quasi static properties along the melt flow direction decreased and vice versa resulting in superior properties normal to the melt flow axis. At around 5 mm, an intersection suggests quasi-isotropic behavior. In addition, the fatigue strength of the material was significantly higher in the flow direction than normal to the flow direction. No change in fatigue life was observed while changing specimen thickness. The Basquin equation seems to describe the effect of stress amplitude on the fatigue strength of this composite. Scanning electron microscopy was used to investigate fracture surfaces of tested specimens. Results show that mechanical properties and morphological structures depend highly on fiber orientation.
The effects of reaction parameters on Hurn:xwiley:23670932:media:cptc202000216:cptc202000216-math-0001 production from ethanol photocatalysis in the gas phase have been investigated. The photocatalytic activity evolves from an early mass‐transfer limited regime to an independent one at later irradiation times, which is interpreted in terms of a photocatalytic site activity distribution. Ethanol molar fraction exhibits two different domains, with Hurn:xwiley:23670932:media:cptc202000216:cptc202000216-math-0002 production increasing up to a molar fraction of 0.12, beyond which it plateaus. Hurn:xwiley:23670932:media:cptc202000216:cptc202000216-math-0003 :AcH ratios are very sensitive to reaction conditions, reaching 1.8 at low reactant flows. UV light is converted to Hurn:x-wiley:23670932:media:cptc202000216:cptc202000216-math-0004 with an efficiency of nearly 3 %.
Process modeling languages help to define and execute processes and workflows. The Business Process Model and Notation (BPMN) 2.0 is used for business processes in commercial areas such as banks, shops, production and supply industry. Due to its flexible notation, BPMN is increasingly being used in non-traditional business process domains like Internet of Things (IoT) and agriculture. However, BPMN does not fit well to scenarios taking place in environments featuring limited, delayed, intermittent or broken connectivity. Communication just exists for BPMN - characteristics of message transfers, their priorities and connectivity parameters are not part of the model. No backup mechanism for communication issues exists, resulting in error-prone and failing processes. This paper introduces resilient BPMN (rBPMN), a valid BPMN extension for process modeling in unreliable communication environments. The meta model addition of opportunistic message flows with Quality of Service (QoS) parameters and connectivity characteristics allows to verify and enhance process robustness at design time. Modeling of explicit or implicit, decision-based alternatives ensures optimal process operation even when connectivity issues occur. In case of no connectivity, locally moved functionality guarantees stable process operation. Evaluation using an agricultural slurry application showed significant robustness enhancements and prevented process failures due to communication issues.
The Internet of Things (IoT) is the enabler for new innovations in several domains. It allows the connection of digital services with physical entities in the real world. These entities are devices of different categories and sizes range from large machinery to tiny sensors. In the latter case, devices are typically characterized by limited resources in terms of computational power, available memory and sometimes limited power supply. As a consequence, the use of security algorithms requires of them to work within the limited resources. This means to find a suitable implementation and configuration for a security algorithm, that performs properly on the device, which may become a challenging task. On the other side, there is the desire to protect valuable assets as strong as possible. Usually, security goals are recorded in security policies, but they do not consider resource availability on the involved device and its power consumption while executing security algorithms. This paper presents an IoT security configuration tool that helps the designer of an IoT environment to experiment with the trade-off between maximizing security and extending the lifetime of a resource constrained IoT device. The tool is controlled with high-level description of security goals in the form of policies. It allows the designer to validate various (security) configurations for a single IoT device up to a large sensor network.
Es ist davon auszugehen, dass weltweit etwa die Hälfte der industriell eingesetzten Wärme als Abwärme ungenutzt verloren geht (Quelle: Effiziente Energieversorgung durch Abwärme, Fachmagazin Energy 2.0, April 2012). Vor dem Hintergrund der Nachhaltigkeit und Energieeffizienz ist es eine verantwortungsvolle Aufgabe, diese ungenutzte Energieressource schrittweise zu erschließen. Für die bisherige Vernachlässigung verfügbarer Energiequellen gibt es spezifische Gründe, die erkannt und projektbezogen möglichst ausgeräumt werden müssen. Dazu hat die Hochschule Osnabrück in Kooperation mit dem Kompetenzzentrum Energie und dem Landkreis Osnabrück eine Studie erstellt.
Regionales Wärmekataster Industrie - ReWIn
Diese Konzeptstudie schafft durch eine vorangestellte Recherche der bereits entwickelten Methoden und Technologien zur Abwärmenutzung eine Grundlage zur Potenzialabschätzung und Aufstellung eines Wärmekatasters für den Landkreis Osnabrück.
In der Studie werden für die typisch energieintensiven Branchen des Landkreises methodische Berechnungsansätze mit statistischen, branchenbezogenen Energiekennwerten und vorerst anonymisierten Unternehmensdaten neuartig kombiniert, um eine regionale Potenzialkarte der Abwärme zu erstellen. Die Studie wurde vom Europäischen Fonds für regionale Entwicklung (EFRE) gefördert.
We describe an automated approach, to easily track patients regaining their walking ability while recovering from neurological diseases like e.g. stroke. Based on captured gait data and objective measures derived out of it the rehabilitation process can be optimized and thus steered. In order to apply such system in clinical practice two key requirements have to be fulfilled: (i) the system needs to be applicable in terms of ease of use and performance; (ii) the derived measures need to be accurate.
Management of agricultural processes is often troubled by disconnections and data transfer failures. Limited cellular network coverage may prevent information exchange between mobile process participants.
The research projects KOMOBAR and ISOCom designed, implemented und field-tested a delay tolerant platform for robust communication in rural areas and challenging environments. An adaptable combination of infrastructure-based cellular networks and infrastructure-free multihop ad hoc communication (WLAN) leads to a variety of new communication opportunities. Temporal storage and forwarding of data on mobile farm machinery as well as dynamic platform configurations during process runtime strongly enhance reliability and robustness of data transfers.
In modern times, closed-loop control systems (CLCSs) play a prominent role in a wide application range, from production machinery via automated vehicles to robots. CLCSs actively manipulate the actual values of a process to match predetermined setpoints, typically in real time and with remarkable precision. However, the development, modeling, tuning, and optimization of CLCSs barely exploit the potential of artificial intelligence (AI). This paper explores novel opportunities and research directions in CLCS engineering, presenting potential designs and methodologies incorporating AI. Combining these opportunities and directions makes it evident that employing AI in developing and implementing CLCSs is indeed feasible. Integrating AI into CLCS development or AI directly within CLCSs can lead to a significant improvement in stakeholder confidence. Integrating AI in CLCSs raises the question: How can AI in CLCSs be trusted so that its promising capabilities can be used safely? One does not trust AI in CLCSs due to its unknowable nature caused by its extensive set of parameters that defy complete testing. Consequently, developers working on AI-based CLCSs must be able to rate the impact of the trainable parameters on the system accurately. By following this path, this paper highlights two key aspects as essential research directions towards safe AI-based CLCSs: (I) the identification and elimination of unproductive layers in artificial neural networks (ANNs) for reducing the number of trainable parameters without influencing the overall outcome, and (II) the utilization of the solution space of an ANN to define the safety-critical scenarios of an AI-based CLCS.
Recent real-time networking developments have enabled ultra reliability, very low latency and high data rates in wired networks. Wireless networking developments have also shown that they can achieve very high data rates with consistency, but they still lack in providing ultra reliability and extremely low latency. Time Sensitive Networking (TSN) developments have brought these capabilities in Industry automation and Automotive industry too. Although TSN is standardized for wired networks for a long time, for wireless networks it will be standardized within the IEEE 802.11be standard for Wi-Fi and 3GPP Release 17 for 5G in the near future. This paper provides an overview of TSN in wired and wireless networks with the aim of comparing different simulators and presenting their offered functionality and shortcomings. These tools can be used to make oneself familiar with TSN algorithms, standards, and for the development and testing of time sensitive networks. Afterwards, the paper discusses open research questions for using TSN over wireless networks.
Simulation von Laserscannern in Pflanzenbeständen für die Entwicklung umfeldbasierter Funktionen
(2018)
Es werden drei Modellierungsansätze zur Simulation von Laserscannern in Pflanzenbeständen für die Entwicklung umfeldbasierter Fahrzeugfunktionen beschrieben. Das Sensorsignal der Distanzmessung wird dabei anhand realer Messwerte oder phänomenologisch und auf der Basis empirisch ermittelter Kennwerte in Abhängigkeit von objekt- und sensorspezifischen Einflussfaktoren abgebildet. Basierend auf den Methoden zur Simulation von Distanzmesssystemen der Open Source Simulationsumgebung Gazebo wurden die Modellierungsansätze als spezifische Sensor- und Umfeldmodelle implementiert. Die Modelle wurden insbesondere für den Einsatz an mobilen landwirtschaftlichen Arbeitsmaschinen und für die Anwendung in der Getreideernte optimiert.
Der Einsatz paralleler Hardware-Architekturen betrifft alle Software-Entwickler und -Entwicklerinnen: vom Supercomputer bis zum eingebetteten System werden Multi- und Manycore-Systeme inzwischen eingesetzt. Die Herausforderungen an das Software Engineering sind vielfältig. Zum einen ist (wieder) ein stärkeres Verständnis für die Hardware notwendig. Ohne eine skalierbare Partitionierung der Software und parallele Algorithmen bleibt die Rechenleistung ungenutzt. Zum anderen stehen neue Programmiersprachen im Vordergrund, die die Ausführung von parallelen Anweisungen ermöglichen.
Dieses Buch betrachtet unterschiedliche Aspekte bei der Entwicklung paralleler Systeme und berücksichtigt dabei auch eingebettete Systeme. Es verbindet Theorie und praktische Anwendung und ist somit für Studierende und Anwender in der Praxis gleichermaßen geeignet. Durch die programmiersprachenunabhängige Darstellung der Algorithmen können sie leicht für die eigene Anwendung angepasst werden. Viele praktische Projekte erleichtern das Selbststudium und vertiefen das Gelernte.
Knowledge of the small-scale nutrient status of arable land is an important basis for optimizing fertilizer use in crop production. A mobile field laboratory opens up the possibility of carrying out soil sampling and nutrient analysis directly on the field. In addition to the benefits of fast data availability and the avoidance of soil material transport to the laboratory, it provides a future foundation for advanced application options, e.g. a high sampling density, sampling of small sub-fields or dynamic adaptation of the sampling line during field sampling. An innovative key component is the NUTRI-STAT ISFET sensor module. It measures values for the ions "NO3- ”, “H2PO4- " and "K+ " as well as the pH. The ISFET sensor module was specially developed for soil nutrient analysis. The phosphorus measurement was further developed for the project "soil2data". First results from the ISFET sensor module show a measurement signal settling time of significantly less than 100 seconds and a further consistent stable measurement signal. The measurement signal dynamics of approx. 58 mV per factor 10 of concentration change is given for the measured variables pH and K+. For the measured quantities of NO3- and H2PO4- , the measurement signal dynamics are lower.
The 3GPP release 16 integrates TSN functionality into 5G and standardizes various options for TSN time synchronization over 5G such as transparent mode and bridge mode. The time domains for the TSN network and the 5G network are kept separate with an option to synchronize either of the networks to the other. The TSN time synchronization over 5G is possible either by using the IEEE 1588 generalized Precision Time Protocol (gPTP) based on UDP/IP multicast or via IEEE 802.1AS based on Ethernet PDUs. The INET and Simu5G simulation frameworks, which are both based on the OMNeT++ discrete event simulator, are widely used for simulating TSN and 5G networks. The INET framework comprises the 802.1AS based time synchronization mechanism, and Simu5G provides the 5G user plane carrying IP PDUs. We modified the 802.1AS-based synchronization model of INET so that it works over UDP/IP. With that, it is possible to synchronize TSN slaves (connected to 5G UEs), across a 5G network, with a TSN master clock, present within a TSN network, that is connected to the 5G core network. Our simulation results show that 500 microseconds of synchronization accuracy can be achieved with the corrected asymmetric propagation delay of uplink and downlink between the gNodeB (gNB) and the User Equipment (UE). Furthermore, the synchronization accuracy can be improved if the delay difference between uplink and downlink is known.
Artificial intelligence (AI) promises transformative impacts on society, industry, and agriculture, while being heavily reliant on diverse, quality data. The resource-intensive "data
problem" has initialized a shift to synthetic data. One downside of synthetic data is known as the "reality gap", a lack of realism. Hybrid data, combining synthetic and real data, addresses this. The paper examines terminological inconsistencies and proposes a unified taxonomy for real, synthetic, augmented, and hybrid data. It aims to enhance AI training datasets in smart agriculture, addressing the challenges in the agricultural data landscape. Utilizing hybrid data in AI models offers improved prediction performance and adaptability.
Nach dem Auslaufen der 20-jährigen Förderung über eine Einspeisevergütung im Rahmen des Erneuerbare-Energien-Gesetzes (EEG) gibt es für deutsche Biogasanlagen diverse technische Möglichkeiten für einen Weiterbetrieb. Neben der Wirtschaftlichkeit sind die Anlagenbetreibenden ein wesentlicher Entscheidungsfaktor für den Weiterbetrieb der Anlage. Somit ergibt sich die zentrale Fragestellung „Welche Treiber und Hemmnisse für Betreibende von Bestandsbiogasanlagen in Deutschland bestehen in den verschiedenen Nutzungspfaden für Biogas, sowie für kooperative Geschäftsmodelle?“. Die Erkenntnisse können unter anderem dafür genutzt werden, die Situation der Anlagenbetreibenden besser zu verstehen, um notwendige Unterstützung für einen Weiterbetrieb, beispielsweise durch Kommunen, zur Verfügung stellen zu können.
The Internet of Things (IoT) relies on sensor devices to measure real-world phenomena in order to provide IoT services. The sensor readings are shared with multiple entities, such as IoT services, other IoT devices or other third parties. The collected data may be sensitive and include personal information. To protect the privacy of the users, the data needs to be protected through an encryption algorithm. For sharing cryptographic cipher-texts with a group of users Attribute-Based Encryption (ABE) is well suited, as it does not require to create group keys. However, the creation of ABE cipher-texts is slow when executed on resource constraint devices, such as IoT sensors. In this paper, we present a modification of an ABE scheme, which not only allows to encrypt data efficiently using ABE, but also reduces the size of the cipher-text, that must be transmitted by the sensor. We also show how our modification can be used to realise an instantaneous key revocation mechanism.
Kugelstrahlen ist ein im Maschinenbau eingesetztes Verfahren zur Steigerung der Ermüdungsfestigkeit. Es wird z. B. bei hochbelasteten Komponenten in der Luft- und Raumfahrt, der Fahrzeugtechnik, im Turbomaschinenbau und weiteren Industriezweigen angewandt. Die Einstellung der Betriebsparameter der Kugelstrahlanalage findet üblicherweise mit kostenintensiven empirischen Versuchen statt, mit dem Ziel, die vorgegebene Druckeigenspannung zu erreichen. In [1, 2] wird auf der Basis einer dort beschriebenen neuartigen Elementarzelle vorgeschlagen, die Almenstreifenaufbiegung als Mittel zur Spezifikation der Verfestigung heranzuziehen. Dazu ist deren Simulation notwendig, welche sich mit der entwickelten Elementarzelle wirtschaftlich bewerkstelligen lässt. In der hier vorliegenden Veröffentlichung werden die der Elementarzelle zugrundeliegenden Finite-Elemente-Netze (FE-Netze) mithilfe von Einzelbe-schussversuchen validiert. Weiterhin wird eine ähnlichkeitsmechanische Betrachtung des Kugelstrahlprozesses zur vereinfachten Parametereinstellung vorgestellt.
Hintergrund Die physiotherapeutische Dokumentation spielt im Therapieprozess eine wichtige Rolle, erfolgt jedoch auf unterschiedlichste Weise. Es existieren derzeit eine Vielzahl von Softwarelösungen für die physiotherapeutische Dokumentation, welche sich jedoch in ihren Funktionalitäten stark unterscheiden. Ziel Mithilfe einer Befragung soll ein Konsens von Expertenaus der Physiotherapie im Themengebiet der softwarebasierten Dokumentation ermittelt werden. Anhand der Ergebnisse wird ein Anforderungskatalog für die Entwicklung einer neuartigen und benutzerorientierten Dokumentationssoftware erstellt. Methode Online-Delphi-Befragung mit neun Experten über drei Befragungswellen.
Ergebnisse Hinsichtlich der Anforderungen an die Anamnese konnte ein Konsens erzielt werden. Bei der Gliederung des Befundes kam es zu keiner Übereinstimmung der Experten. Das Ergebnis lässt sich durch unterschiedliche manualtherapeutische Konzepte erklären, die für die Befunderhebung verwendet wurden. Schlussfolgerung Eine softwarebasierte Dokumentation sollte standardisierter als bisher erfolgen, um den ClinicalReasoning-Prozess zu unterstützten. Gleichzeitig ist dabei eine gewisse Flexibilität geboten. Die gesammelten Anforderungen können für die Entwicklung einer neuartigen und benutzerorientierten mobilen Anwendung zur Effizienzsteigerung in der physiotherapeutischen Dokumentation verwendet werden.
This paper describes the development and test of a novel LiDAR based combine harvester steering system using a harvest scenario and sensor point cloud simulation together with an established simulation toolchain for embedded software development. For a realistic sensor behavior simulation, considering the harvesting environment and the sensor mounting position, a phenomenological approach was chosen to build a multilayer LiDAR model at system level in Gazebo and ROS. A software-in-the-loop simulation of the mechatronic steering system was assembled by interfacing the commercial AppBase framework for point cloud processing and feature detection algorithms together with a machine model and control functions implemented in MATLAB/ Simulink. A test of ECUs in a hardware-in-the-loop simulation and as well as HMI elements in a driver-in-the-loop simulation was achieved by using CAN hardware interfaces and a CANoe based restbus simulation.