Refine
Year of publication
Document Type
- Conference Proceeding (58)
- Article (16)
- Book (6)
- Working Paper (5)
- Part of a Book (2)
- Bachelor Thesis (1)
- Doctoral Thesis (1)
- Moving Images (1)
- Other (1)
- Part of Periodical (1)
- Report (1)
Keywords
- Inverted Classroom (4)
- LiDAR (3)
- Scrum (3)
- Agile Lehre (2)
- Future Skills (2)
- Gazebo (2)
- Kugelstrahlen (2)
- Materialermüdung (2)
- Power Consumption (2)
- Robot operating system (ROS) (2)
Institute
- Fakultät IuI (93) (remove)
This paper describes the development and test of a novel LiDAR based combine harvester steering system using a harvest scenario and sensor point cloud simulation together with an established simulation toolchain for embedded software development. For a realistic sensor behavior simulation, considering the harvesting environment and the sensor mounting position, a phenomenological approach was chosen to build a multilayer LiDAR model at system level in Gazebo and ROS. A software-in-the-loop simulation of the mechatronic steering system was assembled by interfacing the commercial AppBase framework for point cloud processing and feature detection algorithms together with a machine model and control functions implemented in MATLAB/ Simulink. A test of ECUs in a hardware-in-the-loop simulation and as well as HMI elements in a driver-in-the-loop simulation was achieved by using CAN hardware interfaces and a CANoe based restbus simulation.
Hintergrund Die physiotherapeutische Dokumentation spielt im Therapieprozess eine wichtige Rolle, erfolgt jedoch auf unterschiedlichste Weise. Es existieren derzeit eine Vielzahl von Softwarelösungen für die physiotherapeutische Dokumentation, welche sich jedoch in ihren Funktionalitäten stark unterscheiden. Ziel Mithilfe einer Befragung soll ein Konsens von Expertenaus der Physiotherapie im Themengebiet der softwarebasierten Dokumentation ermittelt werden. Anhand der Ergebnisse wird ein Anforderungskatalog für die Entwicklung einer neuartigen und benutzerorientierten Dokumentationssoftware erstellt. Methode Online-Delphi-Befragung mit neun Experten über drei Befragungswellen.
Ergebnisse Hinsichtlich der Anforderungen an die Anamnese konnte ein Konsens erzielt werden. Bei der Gliederung des Befundes kam es zu keiner Übereinstimmung der Experten. Das Ergebnis lässt sich durch unterschiedliche manualtherapeutische Konzepte erklären, die für die Befunderhebung verwendet wurden. Schlussfolgerung Eine softwarebasierte Dokumentation sollte standardisierter als bisher erfolgen, um den ClinicalReasoning-Prozess zu unterstützten. Gleichzeitig ist dabei eine gewisse Flexibilität geboten. Die gesammelten Anforderungen können für die Entwicklung einer neuartigen und benutzerorientierten mobilen Anwendung zur Effizienzsteigerung in der physiotherapeutischen Dokumentation verwendet werden.
Kugelstrahlen ist ein im Maschinenbau eingesetztes Verfahren zur Steigerung der Ermüdungsfestigkeit. Es wird z. B. bei hochbelasteten Komponenten in der Luft- und Raumfahrt, der Fahrzeugtechnik, im Turbomaschinenbau und weiteren Industriezweigen angewandt. Die Einstellung der Betriebsparameter der Kugelstrahlanalage findet üblicherweise mit kostenintensiven empirischen Versuchen statt, mit dem Ziel, die vorgegebene Druckeigenspannung zu erreichen. In [1, 2] wird auf der Basis einer dort beschriebenen neuartigen Elementarzelle vorgeschlagen, die Almenstreifenaufbiegung als Mittel zur Spezifikation der Verfestigung heranzuziehen. Dazu ist deren Simulation notwendig, welche sich mit der entwickelten Elementarzelle wirtschaftlich bewerkstelligen lässt. In der hier vorliegenden Veröffentlichung werden die der Elementarzelle zugrundeliegenden Finite-Elemente-Netze (FE-Netze) mithilfe von Einzelbe-schussversuchen validiert. Weiterhin wird eine ähnlichkeitsmechanische Betrachtung des Kugelstrahlprozesses zur vereinfachten Parametereinstellung vorgestellt.
The Internet of Things (IoT) relies on sensor devices to measure real-world phenomena in order to provide IoT services. The sensor readings are shared with multiple entities, such as IoT services, other IoT devices or other third parties. The collected data may be sensitive and include personal information. To protect the privacy of the users, the data needs to be protected through an encryption algorithm. For sharing cryptographic cipher-texts with a group of users Attribute-Based Encryption (ABE) is well suited, as it does not require to create group keys. However, the creation of ABE cipher-texts is slow when executed on resource constraint devices, such as IoT sensors. In this paper, we present a modification of an ABE scheme, which not only allows to encrypt data efficiently using ABE, but also reduces the size of the cipher-text, that must be transmitted by the sensor. We also show how our modification can be used to realise an instantaneous key revocation mechanism.
Nach dem Auslaufen der 20-jährigen Förderung über eine Einspeisevergütung im Rahmen des Erneuerbare-Energien-Gesetzes (EEG) gibt es für deutsche Biogasanlagen diverse technische Möglichkeiten für einen Weiterbetrieb. Neben der Wirtschaftlichkeit sind die Anlagenbetreibenden ein wesentlicher Entscheidungsfaktor für den Weiterbetrieb der Anlage. Somit ergibt sich die zentrale Fragestellung „Welche Treiber und Hemmnisse für Betreibende von Bestandsbiogasanlagen in Deutschland bestehen in den verschiedenen Nutzungspfaden für Biogas, sowie für kooperative Geschäftsmodelle?“. Die Erkenntnisse können unter anderem dafür genutzt werden, die Situation der Anlagenbetreibenden besser zu verstehen, um notwendige Unterstützung für einen Weiterbetrieb, beispielsweise durch Kommunen, zur Verfügung stellen zu können.
Artificial intelligence (AI) promises transformative impacts on society, industry, and agriculture, while being heavily reliant on diverse, quality data. The resource-intensive "data
problem" has initialized a shift to synthetic data. One downside of synthetic data is known as the "reality gap", a lack of realism. Hybrid data, combining synthetic and real data, addresses this. The paper examines terminological inconsistencies and proposes a unified taxonomy for real, synthetic, augmented, and hybrid data. It aims to enhance AI training datasets in smart agriculture, addressing the challenges in the agricultural data landscape. Utilizing hybrid data in AI models offers improved prediction performance and adaptability.
The 3GPP release 16 integrates TSN functionality into 5G and standardizes various options for TSN time synchronization over 5G such as transparent mode and bridge mode. The time domains for the TSN network and the 5G network are kept separate with an option to synchronize either of the networks to the other. The TSN time synchronization over 5G is possible either by using the IEEE 1588 generalized Precision Time Protocol (gPTP) based on UDP/IP multicast or via IEEE 802.1AS based on Ethernet PDUs. The INET and Simu5G simulation frameworks, which are both based on the OMNeT++ discrete event simulator, are widely used for simulating TSN and 5G networks. The INET framework comprises the 802.1AS based time synchronization mechanism, and Simu5G provides the 5G user plane carrying IP PDUs. We modified the 802.1AS-based synchronization model of INET so that it works over UDP/IP. With that, it is possible to synchronize TSN slaves (connected to 5G UEs), across a 5G network, with a TSN master clock, present within a TSN network, that is connected to the 5G core network. Our simulation results show that 500 microseconds of synchronization accuracy can be achieved with the corrected asymmetric propagation delay of uplink and downlink between the gNodeB (gNB) and the User Equipment (UE). Furthermore, the synchronization accuracy can be improved if the delay difference between uplink and downlink is known.
Knowledge of the small-scale nutrient status of arable land is an important basis for optimizing fertilizer use in crop production. A mobile field laboratory opens up the possibility of carrying out soil sampling and nutrient analysis directly on the field. In addition to the benefits of fast data availability and the avoidance of soil material transport to the laboratory, it provides a future foundation for advanced application options, e.g. a high sampling density, sampling of small sub-fields or dynamic adaptation of the sampling line during field sampling. An innovative key component is the NUTRI-STAT ISFET sensor module. It measures values for the ions "NO3- ”, “H2PO4- " and "K+ " as well as the pH. The ISFET sensor module was specially developed for soil nutrient analysis. The phosphorus measurement was further developed for the project "soil2data". First results from the ISFET sensor module show a measurement signal settling time of significantly less than 100 seconds and a further consistent stable measurement signal. The measurement signal dynamics of approx. 58 mV per factor 10 of concentration change is given for the measured variables pH and K+. For the measured quantities of NO3- and H2PO4- , the measurement signal dynamics are lower.
Der Einsatz paralleler Hardware-Architekturen betrifft alle Software-Entwickler und -Entwicklerinnen: vom Supercomputer bis zum eingebetteten System werden Multi- und Manycore-Systeme inzwischen eingesetzt. Die Herausforderungen an das Software Engineering sind vielfältig. Zum einen ist (wieder) ein stärkeres Verständnis für die Hardware notwendig. Ohne eine skalierbare Partitionierung der Software und parallele Algorithmen bleibt die Rechenleistung ungenutzt. Zum anderen stehen neue Programmiersprachen im Vordergrund, die die Ausführung von parallelen Anweisungen ermöglichen.
Dieses Buch betrachtet unterschiedliche Aspekte bei der Entwicklung paralleler Systeme und berücksichtigt dabei auch eingebettete Systeme. Es verbindet Theorie und praktische Anwendung und ist somit für Studierende und Anwender in der Praxis gleichermaßen geeignet. Durch die programmiersprachenunabhängige Darstellung der Algorithmen können sie leicht für die eigene Anwendung angepasst werden. Viele praktische Projekte erleichtern das Selbststudium und vertiefen das Gelernte.
Simulation von Laserscannern in Pflanzenbeständen für die Entwicklung umfeldbasierter Funktionen
(2018)
Es werden drei Modellierungsansätze zur Simulation von Laserscannern in Pflanzenbeständen für die Entwicklung umfeldbasierter Fahrzeugfunktionen beschrieben. Das Sensorsignal der Distanzmessung wird dabei anhand realer Messwerte oder phänomenologisch und auf der Basis empirisch ermittelter Kennwerte in Abhängigkeit von objekt- und sensorspezifischen Einflussfaktoren abgebildet. Basierend auf den Methoden zur Simulation von Distanzmesssystemen der Open Source Simulationsumgebung Gazebo wurden die Modellierungsansätze als spezifische Sensor- und Umfeldmodelle implementiert. Die Modelle wurden insbesondere für den Einsatz an mobilen landwirtschaftlichen Arbeitsmaschinen und für die Anwendung in der Getreideernte optimiert.
Recent real-time networking developments have enabled ultra reliability, very low latency and high data rates in wired networks. Wireless networking developments have also shown that they can achieve very high data rates with consistency, but they still lack in providing ultra reliability and extremely low latency. Time Sensitive Networking (TSN) developments have brought these capabilities in Industry automation and Automotive industry too. Although TSN is standardized for wired networks for a long time, for wireless networks it will be standardized within the IEEE 802.11be standard for Wi-Fi and 3GPP Release 17 for 5G in the near future. This paper provides an overview of TSN in wired and wireless networks with the aim of comparing different simulators and presenting their offered functionality and shortcomings. These tools can be used to make oneself familiar with TSN algorithms, standards, and for the development and testing of time sensitive networks. Afterwards, the paper discusses open research questions for using TSN over wireless networks.
In modern times, closed-loop control systems (CLCSs) play a prominent role in a wide application range, from production machinery via automated vehicles to robots. CLCSs actively manipulate the actual values of a process to match predetermined setpoints, typically in real time and with remarkable precision. However, the development, modeling, tuning, and optimization of CLCSs barely exploit the potential of artificial intelligence (AI). This paper explores novel opportunities and research directions in CLCS engineering, presenting potential designs and methodologies incorporating AI. Combining these opportunities and directions makes it evident that employing AI in developing and implementing CLCSs is indeed feasible. Integrating AI into CLCS development or AI directly within CLCSs can lead to a significant improvement in stakeholder confidence. Integrating AI in CLCSs raises the question: How can AI in CLCSs be trusted so that its promising capabilities can be used safely? One does not trust AI in CLCSs due to its unknowable nature caused by its extensive set of parameters that defy complete testing. Consequently, developers working on AI-based CLCSs must be able to rate the impact of the trainable parameters on the system accurately. By following this path, this paper highlights two key aspects as essential research directions towards safe AI-based CLCSs: (I) the identification and elimination of unproductive layers in artificial neural networks (ANNs) for reducing the number of trainable parameters without influencing the overall outcome, and (II) the utilization of the solution space of an ANN to define the safety-critical scenarios of an AI-based CLCS.
Management of agricultural processes is often troubled by disconnections and data transfer failures. Limited cellular network coverage may prevent information exchange between mobile process participants.
The research projects KOMOBAR and ISOCom designed, implemented und field-tested a delay tolerant platform for robust communication in rural areas and challenging environments. An adaptable combination of infrastructure-based cellular networks and infrastructure-free multihop ad hoc communication (WLAN) leads to a variety of new communication opportunities. Temporal storage and forwarding of data on mobile farm machinery as well as dynamic platform configurations during process runtime strongly enhance reliability and robustness of data transfers.
We describe an automated approach, to easily track patients regaining their walking ability while recovering from neurological diseases like e.g. stroke. Based on captured gait data and objective measures derived out of it the rehabilitation process can be optimized and thus steered. In order to apply such system in clinical practice two key requirements have to be fulfilled: (i) the system needs to be applicable in terms of ease of use and performance; (ii) the derived measures need to be accurate.
Es ist davon auszugehen, dass weltweit etwa die Hälfte der industriell eingesetzten Wärme als Abwärme ungenutzt verloren geht (Quelle: Effiziente Energieversorgung durch Abwärme, Fachmagazin Energy 2.0, April 2012). Vor dem Hintergrund der Nachhaltigkeit und Energieeffizienz ist es eine verantwortungsvolle Aufgabe, diese ungenutzte Energieressource schrittweise zu erschließen. Für die bisherige Vernachlässigung verfügbarer Energiequellen gibt es spezifische Gründe, die erkannt und projektbezogen möglichst ausgeräumt werden müssen. Dazu hat die Hochschule Osnabrück in Kooperation mit dem Kompetenzzentrum Energie und dem Landkreis Osnabrück eine Studie erstellt.
Regionales Wärmekataster Industrie - ReWIn
Diese Konzeptstudie schafft durch eine vorangestellte Recherche der bereits entwickelten Methoden und Technologien zur Abwärmenutzung eine Grundlage zur Potenzialabschätzung und Aufstellung eines Wärmekatasters für den Landkreis Osnabrück.
In der Studie werden für die typisch energieintensiven Branchen des Landkreises methodische Berechnungsansätze mit statistischen, branchenbezogenen Energiekennwerten und vorerst anonymisierten Unternehmensdaten neuartig kombiniert, um eine regionale Potenzialkarte der Abwärme zu erstellen. Die Studie wurde vom Europäischen Fonds für regionale Entwicklung (EFRE) gefördert.
The Internet of Things (IoT) is the enabler for new innovations in several domains. It allows the connection of digital services with physical entities in the real world. These entities are devices of different categories and sizes range from large machinery to tiny sensors. In the latter case, devices are typically characterized by limited resources in terms of computational power, available memory and sometimes limited power supply. As a consequence, the use of security algorithms requires of them to work within the limited resources. This means to find a suitable implementation and configuration for a security algorithm, that performs properly on the device, which may become a challenging task. On the other side, there is the desire to protect valuable assets as strong as possible. Usually, security goals are recorded in security policies, but they do not consider resource availability on the involved device and its power consumption while executing security algorithms. This paper presents an IoT security configuration tool that helps the designer of an IoT environment to experiment with the trade-off between maximizing security and extending the lifetime of a resource constrained IoT device. The tool is controlled with high-level description of security goals in the form of policies. It allows the designer to validate various (security) configurations for a single IoT device up to a large sensor network.
Process modeling languages help to define and execute processes and workflows. The Business Process Model and Notation (BPMN) 2.0 is used for business processes in commercial areas such as banks, shops, production and supply industry. Due to its flexible notation, BPMN is increasingly being used in non-traditional business process domains like Internet of Things (IoT) and agriculture. However, BPMN does not fit well to scenarios taking place in environments featuring limited, delayed, intermittent or broken connectivity. Communication just exists for BPMN - characteristics of message transfers, their priorities and connectivity parameters are not part of the model. No backup mechanism for communication issues exists, resulting in error-prone and failing processes. This paper introduces resilient BPMN (rBPMN), a valid BPMN extension for process modeling in unreliable communication environments. The meta model addition of opportunistic message flows with Quality of Service (QoS) parameters and connectivity characteristics allows to verify and enhance process robustness at design time. Modeling of explicit or implicit, decision-based alternatives ensures optimal process operation even when connectivity issues occur. In case of no connectivity, locally moved functionality guarantees stable process operation. Evaluation using an agricultural slurry application showed significant robustness enhancements and prevented process failures due to communication issues.
The effects of reaction parameters on Hurn:xwiley:23670932:media:cptc202000216:cptc202000216-math-0001 production from ethanol photocatalysis in the gas phase have been investigated. The photocatalytic activity evolves from an early mass‐transfer limited regime to an independent one at later irradiation times, which is interpreted in terms of a photocatalytic site activity distribution. Ethanol molar fraction exhibits two different domains, with Hurn:xwiley:23670932:media:cptc202000216:cptc202000216-math-0002 production increasing up to a molar fraction of 0.12, beyond which it plateaus. Hurn:xwiley:23670932:media:cptc202000216:cptc202000216-math-0003 :AcH ratios are very sensitive to reaction conditions, reaching 1.8 at low reactant flows. UV light is converted to Hurn:x-wiley:23670932:media:cptc202000216:cptc202000216-math-0004 with an efficiency of nearly 3 %.
In this experimental work, the quasi static and fatigue properties of a 40 wt.% long carbon fiber reinforced partially aromatic polyamide (Grivory GCL-4H) were investigated. For this purpose, microstructural parameter variations in the form of different thicknesses and different removal directions from injectionmolded plates were evaluated. Mechanical properties decreased by increasing misalignment away from the melt flow direction. By changing the specimen thickness, no change in the general fiber distribution pattern transversal and normal to the axis of melt flow was observed. It has shown that with increasing specimen thickness the quasi static properties along the melt flow direction decreased and vice versa resulting in superior properties normal to the melt flow axis. At around 5 mm, an intersection suggests quasi-isotropic behavior. In addition, the fatigue strength of the material was significantly higher in the flow direction than normal to the flow direction. No change in fatigue life was observed while changing specimen thickness. The Basquin equation seems to describe the effect of stress amplitude on the fatigue strength of this composite. Scanning electron microscopy was used to investigate fracture surfaces of tested specimens. Results show that mechanical properties and morphological structures depend highly on fiber orientation.
Long Range Wide Area Network (LoRaWAN) operates in the ISM band with 868 MHz, where the Time on Air (ToA) is regulated in the EU to 1 %. LoRaWAN nodes use the Adaptive Data Rate (ADR) algorithm to adapt their data rates during operation. The standard ADR algorithm works well with stationary nodes, however is very slow in the adaptation for mobile nodes. This paper introduces a new ADR algorithm for LoRaWAN that is supported by higher level meta-data for sensor streams, namely Quality of Information (QoI). With the help of QoI it is possible to provide additional information to the new ADR algorithm, reducing the convergence time and thus improving the Packet Delivery Ratio (PDR) of data from mobile sensor nodes. The new algorithm requires only modifications on network server side and keeps backwards compatibility with LoRaWAN nodes. Results show a significant better PDR compared to the standard ADR in scenarios with a limited number of mobile nodes.
Currently, soil nutrient analysis involves two separate processes for soil sampling and nutrient analysis: 1. field soil sampling and 2. laboratory analysis. These two - separate - main work processes are combined and conceptualised for a mobile field laboratory so that soil sampling and analysis can be carried out simultaneously in the field. The module-based field laboratory "soil2data" can carry out these two main work processes in parallel and consists of 5 different task-specific modules that build on each other: app2field, field2soil, app2liquid, liquid2data and data2app. The individual modules were designed and built for the sub-process steps and adapted to the special features of the mobile field laboratory "soil2data". The biggest advantage is that the analysis results are available immediately, and a fertiliser recommendation can be generated instantly. For further analyses, the results are stored in the data cloud. The soil material remains in the field. In the ongoing project "Prototypes4soil2data", the mobile field laboratory soil2data is being further developed into a prototype with a modular structure.
Protection and privacy of data in cooperative agricultural processes : the challenges of the future
(2016)
In agriculture, the growing usage of sensors, smart mobile machinery and information systems results in high volumes of data. The data differs in accuracy, frequency, volume, type and, most importantly, owner of the information. However, cooperative processes and big data analyses require access to comprehensive amounts of data for successful agricultural operation and reasoning. In some processes instructed contractors even gather data belonging to other owners and use it for machinery operation optimisation and accounting (e.g. yield in maize harvest). Today’s approach of data handling has a high potential to conflict with European and national regulations for data protection and privacy. This article presents a concept for continuous data protection and privacy in cooperative agricultural processes. The concept aims at ensuring data sovereignty for the owner while making as much data usable for process operation and big data research at the same time. Briefly explained, owners pick a collection of data and create usage licenses for other players. The licenses specify time-limited and / or position-bound access to the data collection. Privacy environments in soft- and / or hardware protect access rights on end user devices, data share hubs and machinery devices such as agricultural terminals. In addition to access right configurations, digital signatures prevent data manipulation when cooperative players capture data during processes. Socalled signature boxes represent certificated soft- or hardware components, which are located close at data sources (e.g. as hardware attached to sensors on mobile machinery) and bind the data captured with digital signatures.
Der nachfolgende Projektbericht, welcher im Rahmen des Masterprojektes und des Moduls „Bildgebende Sensortechnik“ erarbeitet wurde, ist wie folgt den beiden Fächern zuzuordnen.
Die Kapitel, welche sich mit der Inbetriebnahme und den Umgang des SICK RMS320 Radarsensors beschäftigen, sind Teil des Masterprojektes. Dies betrifft die Kapitel 2.2, 4.1, 4.3 und in Teilen das Kapitel 4.5.
Dem Modul „Bildgebende Sensortechnik“ sind hingegen die Messung des Einflusses von Kleidung auf die Erkennungsfähigkeit eines Menschen sowie die Radarmessungen der verschiedene Prüfkörper zuzuordnen. Dies wird in den Kapiteln 2.3, 3, 4.2, 4.4 und 4.5 behandelt.
Die „Grundlagen der Radartechnik“ sind für beide Teile gleichbedeutend wichtig.
Due to the resource-constrained nature of embedded systems, it is crucial to support the estimation of their power consumption as early in the development process as possible. Non-functional requirements based on power consumption directly impact the software design, e.g., watt-hour thresholds and expected lifetimes based on battery capacities. Even if software affects hardware behavior directly, these types of requirements are often overlooked by software developers because they are commonly associated with the hardware layer. Modern trends in software engineering such as Model-Driven Development (MDD) can be used in embedded software development to evaluate power consumption-based requirements in early design phases. However, power consumption aspects are currently not sufficiently considered in MDD approaches. In this paper, we present a model-driven approach using Unified Modeling Language profile extensions to model hardware components and their power characteristics. Software m odels are combined with hardware models to achieve a system-wide estimation, including peripheral devices, and to make the power-related impact in early design stages visible. By deriving energy profiles, we provide software developers with valuable feedback, which may be used to identify energy bugs and evaluate power consumption-related requirements. To demonstrate the potential of our approach, we use a sensor node example to evaluate our concept and to identify its energy bugs.
Optimised Nutrient Recovery from Biogas Digestate by Solid/Liquid Separation and Membrane Treatment
(2019)
Anaerobic digestion products of agricultural biogas plants are characterised by high nitrogen, phosphorus, and potassium content. In three scale-up steps, a membrane based digestate treatment process of solid-liquid-separation, ultrafiltration, and reverse osmosis for nutrient recovery was investigated. Lab-scale trials delivered a very good understanding of fluid properties and subsequent ultrafiltration performance, which is the limiting process step in terms of energy demand and operation costs. In semi-technical experiments, optimisation, and design parameters were developed, which were subsequently applied to pilot-scale tests at two full-scale biogas plants. The process optimisation resulted in 50 % energy reduction of the ultrafiltration step. About 36 % of the sludge volume was recovered as dischargeable water, 20 % as solid N/P-fertiliser, and 44 % as liquid N/K-fertiliser.
Aufgrund der Folgen des Klimawandels bekommen klimaanpassende Maßnahmen immer mehr Bedeutung. Durch versiegelte Flächen und Starkregen können einerseits Überschwemmungen entstehen, anderseits führen Hitze und wenig Niederschlag zu Trockenheit und Wassermangel. Deswegen ist es wichtig, klimaanpassende Maßnahmen zu fördern und diese den Bürgern näher zu bringen.
Das Ziel dieser Bachelorarbeit ist, eine Webanwendung zu entwickeln, die die Bürger zur Nutzung von Regenwasser und zu Entsiegelungen als klimaanpassende Maßnahmen motiviert, indem Nutzern eine individuelle Berechnung der Kosten und des Nutzens angeboten wird. Dafür folgt die Entwicklung der Webanwendung dem menschzentrierten Gestaltungsprozess, um eine hohe Benutzerfreundlichkeit zu erreichen. Es werden Usability-Tests als Evaluation durchgeführt.
Die Ergebnisse der Evaluation zeigen, dass die entwickelte Webanwendung die Nutzer zufriedenstellt und die Anforderungen erfüllt. Der menschzentrierte Gestaltungsprozess ist für das betrachtete Themenfeld ein wirksames und zielführendes Vorgehen bei der Entwicklung interaktiver Systeme.
Biogas plants produce nutrient rich digestates as side products, which are usually used as local fertilisers. Yet the large amount and regional gradients of biogas plants in Germany necessitate management, conditioning, and transportation of digestates, in order to follow good fertilising procedure and prohibit local over-fertilisation. With a membrane-based treatment chain, i.e. centrifugation, ultrafiltration, and reverse osmosis, digestates can be separated into a solid N,P-fertiliser, a liquid N,K-fertiliser, and dischargeable water. Up to now, the high energy demand of the process chain, in particular the ultrafiltration step, limits the economical market launch of the treatment chain. A reduction of the energy demand is challenging, as digestates exhibit a high fouling potential and ultrafiltration fluxes differ considerably for digestates from different biogas plants. In a systematic screening of 28 digestate samples from agricultural biogas plants and 6 samples from bio-waste biogas plants, ultrafiltration performance could be successfully linked to the rheological properties of the digestate’s liquid phase and to its macromolecular biopolymer concentration. By modification of the fluid characteristics through enzymatic treatment, ultrafiltration performance was considerably increased by factor 2.8 on average, which equals energy savings in the ultrafiltration step of approximately 45%. Consequently, the energy demand of the total treatment chain decreases, which offers potential for further rollout of the membrane-based digestate treatment.
Pregnancy loss is the most common complication in pregnancy. Yet those who experience it can find it challenging to disclose this loss and feelings associated
with it, and to seek support for psychological and physical recovery. We describe our process for
interleaving interviews, theoretical development, speculative design, and prototyping Not Alone to
explore the design space for online disclosures and
support seeking in the pregnancy loss context.
Interviews with 27 women who had experienced pregnancy loss resulted in theoretical concepts such as
“network-level reciprocal disclosure” (NLRD). We discuss how interview findings informed the design of
the Not Alone prototype, a mobile application aimed at enabling disclosure and social support exchange among those with pregnancy loss experience. The Not Alone prototype embodies concepts that facilitate NLRD: perceptions of homophily, anonymity levels, and selfdisclosure by talking about one’s experience and engaging with others’ disclosures. In future work, we will use Not Alone as a technology probe for exploring
NLRD as a design principle.
Knowledge of the maximum friction coefficient µmax between tire and road is necessary for implementing autonomous driving. As this coefficient cannot be measured via existing serial vehicle sensors, µmax estimation is a challenging field in modern automotive research. In particular, model-based approaches are applied, which are limited in the estimation accuracy by the physical vehicle model. Therefore, this paper presents a data-based µmax estimation using serial vehicle sensors. For this purpose, recurrent artificial neural networks are trained, validated, and tested based on driving maneuvers carried out with a test vehicle showing improved results compared to the model-based algorithm from previous works.
Reliable information processing is an indispensable task in Smart City environments. Heterogeneous sensor infrastructures of individual information providers and data portal vendors tend to offer a hardly revisable information quality. This paper proposes a correlation model-based monitoring approach to evaluate the plausibility of smart city data sources. The model is based on spatial, temporal, and domain dependent correlations between individual data sources. A set of freely available datasets is used to evaluate the monitoring component and show the challenges of different spatial and temporal resolutions.
The Internet of Things (IoT) is the enabler for new innovations in several domains. It allows the connection of digital services with real, physical entities. These entities are devices of different categories and range in size from large machinery to tiny sensors. In the latter case, devices are typically characterized by limited resources in terms of computational power, available memory and sometimes limited power supply. As a consequence, the use of security algorithms requires expert knowledge in order for them to work within the limited resources. That means to find a suitable configuration for the algorithms to perform properly on the device. On the other side, there is the desire to protect valuable assets as strong as possible. Usually, security goals are captured in security policies, but they do not consider resource availability on the involved device and their consumption while executing security algorithms. This paper presents a resource aware information exchange model and a generation tool that uses high-level security policies as input. The model forms the conceptual basis for an automated security configuration recommendation system.
In der Agrartechnik steht Landwirten und Lohnunternehmern eine steigende Anzahl digitaler Dienste zur Verfügung. Eine Modellierung, Ausführung und Steuerung von kooperativen Agrarprozessen ist aufgrund der verschiedenen, zueinander inkompatiblen IT-Lösungen nur eingeschränkt möglich. Es fehlt ein einheitlicher Standard zur Beschreibung dieser Prozesse. Der Beitrag stellt die Beschreibung von Agrarprozessen mit der Business Process Model and Notation (BPMN) dar. Domänenexperten (z.B. Landwirte, Lohnunternehmer, digitale Dienstanbieter) können kooperative Prozessabläufe plattformübergreifend gestalten, ohne dabei Prozessinterna mit anderen Akteuren teilen zu müssen. Als Brücke zwischen der kooperativen Prozessebene und der ausführenden Maschinenebene wird im Beitrag Message Queue Telemetry Transport (MQTT) eingesetzt: Mittels MQTT können Anweisungen und Informationen (z.B. Arbeitsaufträge, Statusdaten) zwischen beiden Ebenen in Echtzeit vermittelt und verarbeitet werden.
This paper presents a framework for OMNeT++ which includes time synchronization model for WLANs. Synchronization is based on the Generalized Precision Time Protocol (gPTP) standard, which aims to achieve an accuracy of less than 100 nanoseconds. The presented model is developed and implemented in OMNeT++, a discrete event network simulator, using its INET library. A new type of WLAN node is modeled which supports time synchronization at the Link layer. A clock module for WLAN nodes is also modeled which implements variable clock drift to simulate noise interference in clock frequency oscillators. Simulations with our WLAN nodes are done and the results show that using gPTP based time synchronization in wireless networks, accuracy of ±3ns can be achieved.
Auf vielen Landmaschinen wird der CAN-Bus zur Übertragung von Daten zwischen Sensoren, Aktoren und Steuergeräten genutzt. Anwendungen wie Rückfahrkameras und Bird-ViewAnzeigen erfordern in der Regel zusätzliche, breitbandige Kommunikationskanäle. Dieser Beitrag untersucht, inwieweit ein gemeinschaftliches Kommunikationsmedium auf Basis von Ethernet zur Realisierung aktueller und zukünftiger Anwendungen auf Landmaschinen genutzt werden kann. Zusätzlich wird der Einsatz aktueller Technologien wie Audio/Video Bridging, Time-Sensitive Networking und Wifi auf einem Landmaschinengespann untersucht und bewertet.
Various overoxidized poly(1H-pyrrole) (PPy), poly(N-methylpyrrole) (PMePy) or poly(3,4-ethylenedioxythiophene) (PEDOT) membranes incorporated into an acrylate-based solid polymer electrolyte matrix (SPE) were directly electrosynthesized by a two-step in situ procedure. The aim was to extend and improve fundamental properties of pure SPE materials. The polymer matrix is based on the cross-linking of glycerol propoxylate (1PO/OH) triacrylate (GPTA) with poly(ethylene glycol) diacrylate (PEGDA) and lithium bis(trifluoromethanesulfonyl)imide (LiTFSI) as a conducting salt. A self-standing and flexible polymer electrolyte film is formed during the UV-induced photopolymerization of the acrylate precursors, followed by an electrochemical polymerization of the conducting polymers to form a 3D-IPN. The electrical conductivity of the conducting polymer is destroyed by electrochemical overoxidation in order to convert the conducting polymer into an ion-exchange membrane by introduction of electron-rich groups onto polymer units. The resulting polymer films were characterized by scanning electron microscopy, cyclic voltammetry, electrochemical impedance spectroscopy, differential scanning calorimetry, thermal analysis and infrared spectroscopy. The results of this study show that the combination of a polyacrylate-matrix with ion selective properties of overoxidized CPs leads to new 3D materials with higher ionic conductivity than SPEs and separator or selective ion-exchange membrane properties with good stability by facile fabrication.
The present study gives an overview of recent investigations dealing with the fatigue behaviour of the tempered martensitic steel 50CrMo4 (Fe-0.5wt%C-1wt%Cr) in the HCF and VHCF regime by taking into account a variation in material strength, by modifying the heat treatment parameters. The parameters for the tempering treatment were adapted to receive two material conditions with 37HRC and 57HRC, respectively. Subsequently, fatigue specimens were machined from the heat-treated bars for fatigue tests in an ultrasonic (f=20000Hz) and a resonance (f=95Hz) fatigue testing machine under fully reversed loading (R=-1) at laboratory air atmosphere. It was found that the dominant fatigue and fracture mechanisms change with increasing material strength. For 37HRC moderate-strength specimens crack initiation was shown to occur on the specimen surface within Cr depleted bands (segregation bands) as the dominant fatigue damage mechanism. Contrary to that, only internal crack initiation at non-metallic inclusions was observed for the high strength 57HRC condition. Furthermore, the completely different crack initiation mechanisms of the two heat treatment conditions were assessed by applying the Murakami approach relating the fatigue limit with the size of non-metallic inclusions.
Die Anforderungen an zukünftige Teilnehmende eines Arbeitsmarktes verändern sich. Das von Frithjof Bergmann begründete Prinzip der Neuen Arbeit (Bergmann, 2004) ist aktuell Gegenstand zahlreicher Diskussionen und Debatten über aktuelle und zukünftige Arbeitswelten. Die sich daraus ergebenden Kompetenzanforderungen passen mit der Lehre in Hochschulen wenig zusammen. Zunehmend werden agile Lernszenarien diskutiert.
Das Inverted Classroom Modell (ICM) erfreut sich seit einigen Jahren großer Beliebtheit in der Hochschullehre. Aus Studierendensicht ist die Teilnahme an einer ICM-Veranstaltung aber eine Herausforderung. Für ein erfolgreiches Lernen sind insbesondere personale Kompetenzen wie Selbstmotivation, Durchhaltevermögen und Selbstregulationskompetenz erforderlich (Pöpel & Morisse, 2019). Um diesem Umstand entgegenzuwirken, wurde vom Autor ICM mit Ideen aus Scrum für eine Informatik-Lehrveranstaltung kombiniert (siehe auch (Morisse & Heidemann, 2021)). Die Wirkung von Scrum kann sich nur entfalten, wenn die Arbeit in einzelne Sprints aufgeteilt wird und bei der Bearbeitung der Sprints auch die eigene Zusammenarbeit im Rahmen einer Retrospektive kritisch reflektiert wird. Zu diesem Zweck wird der gesamte Inhalt der Lehrveranstaltung in eine Anzahl von thematischen Blöcken aufgeteilt, die als Lehr- und Lerninhalte für die Lern-Sprints der Scrum-Umsetzung werden. Für jeden Themenblock müssen die theoretischen Inhalte erarbeitet sowie eine eigenständige Zusammenfassung formuliert werden. Ergänzend dazu wurde ein Software-Produkt definiert, in dessen Rahmen die theoretischen Inhalte einfließen konnten.
Die Durchführung eines Reviews und einer Retrospektive schließen bei Scrum einen Sprint ab. Genau dies lässt sich auch im Hochschulkontext sehr gut als Feedback-Instrument durchführen. Das Review bestand in der Inspektion der entwickelten Software. Mit der Retrospektive wird die eigene Zusammenarbeit im Team kritisch reflektiert. Ein besonderes Augenmerk verdient der kommunikative Stil zwischen Lehrenden und Studierenden. Bei einem Veranstaltungskonzept, welches getragen wird von Interaktion und Diskussion, kommt einer empathischen und wertschätzenden Kommunikation eine besondere Bedeutung zu. Das dies in der vorgestellten Veranstaltung scheinbar gelungen ist, zeigt das Zitat eines der teilnehmenden Studierenden „Ich freue mich immer auf die Review-Termine“. Zur Erinnerung: Das Review ist der Termin zur Vorstellung des erreichten Ergebnisses, also eher ein Prüfungs-Setting, bei dem Studierende ihre Arbeit präsentieren. Weitere positive Resonanzmerkmale durch die Studierenden waren die hoffnungsvollen Fragen, ob denn die Veranstaltungen im kommenden Semester auch nach ICMScrum organisiert sind.
Der Beitrag beschreibt als Werkstattbericht die Kombination des Inverted Classroom Modells mit der agilen Entwicklungsmethodik von Scrum zu einem Veranstaltungskonzept für ein Grundlagenfach der Informatik. Neben der fachspezifischen Lehre wird dadurch das Vorgehen die in der Informatik immer wichtiger werdende agile Entwicklungsmethodik zum überfachlichen Kompentenzerwerb adressiert. Der Beitrag stellt die Umsetzung der agilen Lehrmethodik vor und gibt erste Rückmeldungen aus Sicht von Studierenden und Lehrenden.
Der Beitrag beschreibt die Entwicklung eines Inverted Classroom Konzeptes für ein Informatik-Grundlagenfach an einer Hochschule. Basierend auf Vorlesungsaufzeichnungen und Vorlesungsskript wurde hierbei besonderes Augenmerk auf die Gestaltung der gemeinsamen Präsenzzeit zwischen Studierenden und Lehrenden gelegt. Durch zahlreiche aktivierende Elemente sind die Studierenden hierbei gefordert, ihren Lernprozess selbst zu gestalten, um somit über die fachlichen Kompetenzen des Faches hinaus auch überfachliche Kompetenzen, wie beispielsweise Kommunikations- und Kooperationskompetenz, Selbstlernkompetenz und Eigenverantwortung zu trainieren.
Der Beitrag beschreibt das Veranstaltungskonzept ICMScrum, welches die Ideen des Inverted Classroom mit Elementen aus Scrum kombiniert. Beginnend mit Anforderungen des aktuellen und zukünftigen Arbeitsmarktes werden die zentralen Elemente der Methodik anhand eines praktizierten Beispiels vorgestellt und kritisch diskutiert.
Innovationen sind die stärksten Gestaltungsfaktoren für eine neue vielversprechende Zukunft, da sie die wichtigsten Treiber für Wachstum und Ertrag in unserer Wirtschaft sind. Die aktuelle Zeitenwende zeigt uns sehr deutlich, dass wir ohne Innovationen bzw. Veränderungen und Anpassungen kaum noch wettbewerbsfähig bleiben, sowohl als Nation bzw. als Gesellschaft und insbesondere als Unternehmen.
Die hohe Dynamik und Komplexität der wirtschaftlichen und sozialen Prozesse setzt neue Maßstäbe an die Innovationsstrategien von Institutionen und Unternehmen.
Neue Technologien, neue Märkte, neues Kundenverhalten und der stetige Wandel sowohl in der Arbeitswelt als auch in unserem gesellschaftlichen Umfeld, wie z.B. die Digitalisierung, zeigen uns, dass allein eine Produktinnovation als solche heute nicht mehr ausreicht. Unter den genannten Randbedingungen müssen Innovationen auch in der Gestaltung von Geschäftsprozessen und Realisierung der "Work-Life-Balance" neu erdacht bzw. überprüft werden.
Der Vorsprung innovativer Produkte im viralen Wettbewerb ist oft nur kurz. Ein ganzheitliches Innovationsmanagement hat alle Bereiche des Unternehmens einzubeziehen und führt zu neuen Geschäftsmodellen, die etablierte Geschäftspraktiken verdrängen, ebenso tauchen durch neue Technologien in immer stärkerem Maße neue Anbieter auf, die die Spielregeln in den Märkten verändern.
Der 1. Deutsche Innovations-Kongress will Impulse setzen, Best-Practice-Modelle als Vorbilder anbieten und im Austausch zwischen den Referent*innen und den Teilnehmer*innen neue Wege bzw. Perspektiven eröffnen.
Wir freuen uns auf alle Teilnehmer*innen und den Erfahrungsaustausch, um aktuelle und nachhaltige Innovations-Impulse zu setzen und neue Wege erfolgversprechende Wege zu beschreiben, womit die bereits fruchtbaren Kooperationen zwischen Wirtschaft und Wissenschaft im Großraum Osnabrück noch weiter belebt werden soll.
Aktuell tragen auch 8 Studierendengruppen des Masterstudiengangs "Entwicklung und Produktion" der Hochschule Osnabrück in der Fakultät I u. I im Rahmen des Moduls "Innovationsmanagement" in Kooperation mit Unternehmen aus der Region durch die Entwicklung neuer innovativer Produkte zum Erfolg des Kongresses bei. Die Zwischenergebnisse dazu werden in einer Poster-Ausstellung präsentiert. Die Innovationsprojekte werden unter der Leitung von Prof. Dr. Jens Schäfer durchgeführt.
Im Modul Algorithmen und Datenstrukturen ist das Inverted Classroom Modell mit der Scrum-Methodik kombiniert. Die Studierenden erarbeiten die Inhalte des Moduls im Lernmanagementsystem mithilfe von Videoaufzeichnungen, digitalem Skript und interaktiven Übungseinheiten. Der Wegfall der klassischen Vorlesung ermöglicht mehr Zeit zur Beantwortung von Fragen, Diskussionen sowie der Reflexion des Erlernten durch Hörsaal-Quizze. Die Themen der Veranstaltung werden vorgegeben, aber die Bearbeitung erfolgt individuell und die Studierenden gestalten ihre eigenen Lernprozesse. Theorie und Praxis der Veranstaltung werden analog zur Scrum-Methodik in mehrwöchigen Sprints im Team bearbeitet. Die Aufgaben sind in den Kontext einer virtuellen Betriebssystemumgebung eingebettet und bauen aufeinander auf. Das Softwareprojekt wird hierzu als GitLab-Repository zur Verfügung gestellt. Die Verwendung von Git und integrierten Test-Routinen entsprechen einer realitätsnahen Vorgehensweise, wie sie in der Softwareentwicklung allgemein gängige Praxis ist.
Power consumption has become a major design constraint, especially for battery-powered embedded systems. However, the impact of software applications is typically considered in later phases, where both software and hardware parts are close to their finalization. Power-related issues must be detected in early stages to keep the development costs low, satisfy time-to-market, and avoid cost-intensive redesign loops. Moreover, the variety of hardware components, architectures, and communication interfaces make the development of embedded software more challenging. To manage the complexity of software applications, approaches such as model-driven development (MDD) may be used. This article proposes a power-estimation approach in MDD for software application models in early development phases. A unified modeling language (UML) profile is introduced to model power-related properties of hardware components. To determine the impact of software applications, we defined two analysis methods using simulation data and a novel in-the-loop concept. Both methods may be applied at different development stages to determine an energy trace, describing the energy-related behavior of the system. A novel definition of energy bugs is provided to describe power-related misbehavior. We apply our approach to a sensor node example, demonstrate an energy bug detection, and compare the runtime and accuracy of the analysis methods.
The usage of high-level synthesis (HLS) tools for FPGAs has increased significantly over the last years since they matured and allow software programmers to take advantage of reconfigurable hardware technology.
Most HLS tools employ methods to optimize for loops, e. g. by unrolling or pipelining them. But there is hardly any work on the optimization of while loops. This comes at no surprise since most while loops have loop-carried dependences involving the loop condition which result in large recurrence cycles in the dataflow graphs. Therefore typical while loops cannot be parallelized or pipelined.
We propose a novel transformation which allows to optimize while loops nested within a for loop. By interchanging the two loops, it is possible to pipeline (and thereby parallelize) the inner loop, resulting in a reduced execution time. We present two case studies on different hardware platforms and show the speedup factors - compared to a host processor and to an unoptimized hardware implementation - achieved by our while loop optimization method.