Fakultät IuI
Refine
Document Type
- Conference Proceeding (20)
- Article (9)
- Book (4)
- Part of a Book (1)
- Doctoral Thesis (1)
- Part of Periodical (1)
Has Fulltext
- no (36) (remove)
Keywords
- Future Skills (2)
- Inverted Classroom (2)
- Power Consumption (2)
- Scrum (2)
- time synchronization (2)
- 5G (1)
- 802.1AS (1)
- AVB/TSN (1)
- Agile Lehre (1)
- Bodennährstoffanalyse (1)
Institute
- Fakultät IuI (36)
- Fakultät AuL (2)
- Fakultät WiSo (1)
- Institut für Duale Studiengänge (1)
The usage of high-level synthesis (HLS) tools for FPGAs has increased significantly over the last years since they matured and allow software programmers to take advantage of reconfigurable hardware technology.
Most HLS tools employ methods to optimize for loops, e. g. by unrolling or pipelining them. But there is hardly any work on the optimization of while loops. This comes at no surprise since most while loops have loop-carried dependences involving the loop condition which result in large recurrence cycles in the dataflow graphs. Therefore typical while loops cannot be parallelized or pipelined.
We propose a novel transformation which allows to optimize while loops nested within a for loop. By interchanging the two loops, it is possible to pipeline (and thereby parallelize) the inner loop, resulting in a reduced execution time. We present two case studies on different hardware platforms and show the speedup factors - compared to a host processor and to an unoptimized hardware implementation - achieved by our while loop optimization method.
Der Einsatz paralleler Hardware-Architekturen betrifft alle Software-Entwickler und -Entwicklerinnen: vom Supercomputer bis zum eingebetteten System werden Multi- und Manycore-Systeme inzwischen eingesetzt. Die Herausforderungen an das Software Engineering sind vielfältig. Zum einen ist (wieder) ein stärkeres Verständnis für die Hardware notwendig. Ohne eine skalierbare Partitionierung der Software und parallele Algorithmen bleibt die Rechenleistung ungenutzt. Zum anderen stehen neue Programmiersprachen im Vordergrund, die die Ausführung von parallelen Anweisungen ermöglichen.
Dieses Buch betrachtet unterschiedliche Aspekte bei der Entwicklung paralleler Systeme und berücksichtigt dabei auch eingebettete Systeme. Es verbindet Theorie und praktische Anwendung und ist somit für Studierende und Anwender in der Praxis gleichermaßen geeignet. Durch die programmiersprachenunabhängige Darstellung der Algorithmen können sie leicht für die eigene Anwendung angepasst werden. Viele praktische Projekte erleichtern das Selbststudium und vertiefen das Gelernte.
Artificial intelligence (AI) and human-machine interaction (HMI) are two keywords that usually do not fit embedded applications. Within the steps needed before applying AI to solve a specific task, HMI is usually missing during the AI architecture design and the training of an AI model. The human-in-the-loop concept is prevalent in all other steps of developing AI, from data analysis via data selection and cleaning to performance evaluation. During AI architecture design, HMI can immediately highlight unproductive layers of the architecture so that lightweight network architecture for embedded applications can be created easily. We show that by using this HMI, users can instantly distinguish which AI architecture should be trained and evaluated first since a high accuracy on the task could be expected. This approach reduces the resources needed for AI development by avoiding training and evaluating AI architectures with unproductive layers and leads to lightweight AI architectures. These resulting lightweight AI architectures will enable HMI while running the AI on an edge device. By enabling HMI during an AI uses inference, we will introduce the AI-in-the-loop concept that combines AI's and humans' strengths. In our AI-in-the-loop approach, the AI remains the working horse and primarily solves the task. If the AI is unsure whether its inference solves the task correctly, it asks the user to use an appropriate HMI. Consequently, AI will become available in many applications soon since HMI will make AI more reliable and explainable.
Die Maschine ist in der Lage faserverstärkte thermoplastische Kunststoffrohre herzustellen. Entwickelt und konstruiert wurde die Maschine als Open Source Hardware Projekt. Das bedeutet die Baupläne und Zeichnungen werden frei zur Verfügung gestellt. Heimwerker und andere Interessierte sollen dadurch die Möglichkeit bekommen faserverstärkte Rohre eigenständig und günstig herzustellen. Die Entwicklung und Konstruktion der Wickelmaschine ist das Ergebnis einer Masterarbeit an der Hochschule Osnabrück.
Innovationen sind die stärksten Gestaltungsfaktoren für eine neue vielversprechende Zukunft, da sie die wichtigsten Treiber für Wachstum und Ertrag in unserer Wirtschaft sind. Die aktuelle Zeitenwende zeigt uns sehr deutlich, dass wir ohne Innovationen bzw. Veränderungen und Anpassungen kaum noch wettbewerbsfähig bleiben, sowohl als Nation bzw. als Gesellschaft und insbesondere als Unternehmen.
Die hohe Dynamik und Komplexität der wirtschaftlichen und sozialen Prozesse setzt neue Maßstäbe an die Innovationsstrategien von Institutionen und Unternehmen.
Neue Technologien, neue Märkte, neues Kundenverhalten und der stetige Wandel sowohl in der Arbeitswelt als auch in unserem gesellschaftlichen Umfeld, wie z.B. die Digitalisierung, zeigen uns, dass allein eine Produktinnovation als solche heute nicht mehr ausreicht. Unter den genannten Randbedingungen müssen Innovationen auch in der Gestaltung von Geschäftsprozessen und Realisierung der "Work-Life-Balance" neu erdacht bzw. überprüft werden.
Der Vorsprung innovativer Produkte im viralen Wettbewerb ist oft nur kurz. Ein ganzheitliches Innovationsmanagement hat alle Bereiche des Unternehmens einzubeziehen und führt zu neuen Geschäftsmodellen, die etablierte Geschäftspraktiken verdrängen, ebenso tauchen durch neue Technologien in immer stärkerem Maße neue Anbieter auf, die die Spielregeln in den Märkten verändern.
Der 1. Deutsche Innovations-Kongress will Impulse setzen, Best-Practice-Modelle als Vorbilder anbieten und im Austausch zwischen den Referent*innen und den Teilnehmer*innen neue Wege bzw. Perspektiven eröffnen.
Wir freuen uns auf alle Teilnehmer*innen und den Erfahrungsaustausch, um aktuelle und nachhaltige Innovations-Impulse zu setzen und neue Wege erfolgversprechende Wege zu beschreiben, womit die bereits fruchtbaren Kooperationen zwischen Wirtschaft und Wissenschaft im Großraum Osnabrück noch weiter belebt werden soll.
Aktuell tragen auch 8 Studierendengruppen des Masterstudiengangs "Entwicklung und Produktion" der Hochschule Osnabrück in der Fakultät I u. I im Rahmen des Moduls "Innovationsmanagement" in Kooperation mit Unternehmen aus der Region durch die Entwicklung neuer innovativer Produkte zum Erfolg des Kongresses bei. Die Zwischenergebnisse dazu werden in einer Poster-Ausstellung präsentiert. Die Innovationsprojekte werden unter der Leitung von Prof. Dr. Jens Schäfer durchgeführt.
With the increasing size and complexity of embedded systems, the impact of software on energy consumption is becoming more important. Previous research focused mainly on energy optimization at the hardware level. However, little research has been carried out regarding energy optimization at the software design level. This paper focuses on the software design level and addresses the gap between software and hardware design for embedded systems. This is achieved by proposing a framework for software design patterns, which takes aspects of power consumption and time behavior of the hardware level into account. We evaluate the expressiveness of the framework by applying it to well-known and novel design patterns. Furthermore, we introduce a dimensionless numerical efficiency factor to make possible energy savings quantifiable.
Due to the resource-constrained nature of embedded systems, it is crucial to support the estimation of their power consumption as early in the development process as possible. Non-functional requirements based on power consumption directly impact the software design, e.g., watt-hour thresholds and expected lifetimes based on battery capacities. Even if software affects hardware behavior directly, these types of requirements are often overlooked by software developers because they are commonly associated with the hardware layer. Modern trends in software engineering such as Model-Driven Development (MDD) can be used in embedded software development to evaluate power consumption-based requirements in early design phases. However, power consumption aspects are currently not sufficiently considered in MDD approaches. In this paper, we present a model-driven approach using Unified Modeling Language profile extensions to model hardware components and their power characteristics. Software m odels are combined with hardware models to achieve a system-wide estimation, including peripheral devices, and to make the power-related impact in early design stages visible. By deriving energy profiles, we provide software developers with valuable feedback, which may be used to identify energy bugs and evaluate power consumption-related requirements. To demonstrate the potential of our approach, we use a sensor node example to evaluate our concept and to identify its energy bugs.
Optimised Nutrient Recovery from Biogas Digestate by Solid/Liquid Separation and Membrane Treatment
(2019)
Anaerobic digestion products of agricultural biogas plants are characterised by high nitrogen, phosphorus, and potassium content. In three scale-up steps, a membrane based digestate treatment process of solid-liquid-separation, ultrafiltration, and reverse osmosis for nutrient recovery was investigated. Lab-scale trials delivered a very good understanding of fluid properties and subsequent ultrafiltration performance, which is the limiting process step in terms of energy demand and operation costs. In semi-technical experiments, optimisation, and design parameters were developed, which were subsequently applied to pilot-scale tests at two full-scale biogas plants. The process optimisation resulted in 50 % energy reduction of the ultrafiltration step. About 36 % of the sludge volume was recovered as dischargeable water, 20 % as solid N/P-fertiliser, and 44 % as liquid N/K-fertiliser.
Die Digitalisierung des Bodenbeprobungsverfahrens mit einer automatisierten Generierung einer Düngeempfehlung auf Grundlage der analysierten Bodennährstoffgehalte – direkt nach Beendigung der Bodenbeprobung auf dem Acker – ist ein übergeordnetes Ziel bei der Nutzung des mobilen Feldlabors „soil2data“. Neben den Bodennährstoffanalyse-Ergebnissen sind für die Umsetzung einer automatisierten generierten Düngeempfehlung weitere Informationen notwendig.
Die Quellen dieser Informationen haben einen unterschiedlichen Ursprung. Es sind Daten aus verschiedenen Quellen vom Bewirtschafter, von Dienstleistern und vom mobilen Feldlabor, welche miteinander verknüpft und synchronisiert werden müssen. Für einen automatisierten Prozessablauf zur Generierung einer Düngeempfehlung ist die Datenorganisation eine essenzielle Voraussetzung. Die Grundlage der Empfehlung sind die Tabellenwerke der offiziellen Düngeempfehlung, die bei den für die Düngung zuständigen Behörden der Bundesländer vorliegen. In dieser Publikation werden die notwendigen Daten und der Prozessdatenfluss für die Bodenbeprobung und Düngeempfehlung-Generierung beschrieben und grafisch dargestellt.
Auf vielen Landmaschinen wird der CAN-Bus zur Übertragung von Daten zwischen Sensoren, Aktoren und Steuergeräten genutzt. Anwendungen wie Rückfahrkameras und Bird-ViewAnzeigen erfordern in der Regel zusätzliche, breitbandige Kommunikationskanäle. Dieser Beitrag untersucht, inwieweit ein gemeinschaftliches Kommunikationsmedium auf Basis von Ethernet zur Realisierung aktueller und zukünftiger Anwendungen auf Landmaschinen genutzt werden kann. Zusätzlich wird der Einsatz aktueller Technologien wie Audio/Video Bridging, Time-Sensitive Networking und Wifi auf einem Landmaschinengespann untersucht und bewertet.
The 3GPP release 16 integrates TSN functionality into 5G and standardizes various options for TSN time synchronization over 5G such as transparent mode and bridge mode. The time domains for the TSN network and the 5G network are kept separate with an option to synchronize either of the networks to the other. The TSN time synchronization over 5G is possible either by using the IEEE 1588 generalized Precision Time Protocol (gPTP) based on UDP/IP multicast or via IEEE 802.1AS based on Ethernet PDUs. The INET and Simu5G simulation frameworks, which are both based on the OMNeT++ discrete event simulator, are widely used for simulating TSN and 5G networks. The INET framework comprises the 802.1AS based time synchronization mechanism, and Simu5G provides the 5G user plane carrying IP PDUs. We modified the 802.1AS-based synchronization model of INET so that it works over UDP/IP. With that, it is possible to synchronize TSN slaves (connected to 5G UEs), across a 5G network, with a TSN master clock, present within a TSN network, that is connected to the 5G core network. Our simulation results show that 500 microseconds of synchronization accuracy can be achieved with the corrected asymmetric propagation delay of uplink and downlink between the gNodeB (gNB) and the User Equipment (UE). Furthermore, the synchronization accuracy can be improved if the delay difference between uplink and downlink is known.
Recent real-time networking developments have enabled ultra reliability, very low latency and high data rates in wired networks. Wireless networking developments have also shown that they can achieve very high data rates with consistency, but they still lack in providing ultra reliability and extremely low latency. Time Sensitive Networking (TSN) developments have brought these capabilities in Industry automation and Automotive industry too. Although TSN is standardized for wired networks for a long time, for wireless networks it will be standardized within the IEEE 802.11be standard for Wi-Fi and 3GPP Release 17 for 5G in the near future. This paper provides an overview of TSN in wired and wireless networks with the aim of comparing different simulators and presenting their offered functionality and shortcomings. These tools can be used to make oneself familiar with TSN algorithms, standards, and for the development and testing of time sensitive networks. Afterwards, the paper discusses open research questions for using TSN over wireless networks.
Analysis of methods for prioritizing critical data transmissions in agricultural vehicular networks
(2020)
Applying wireless communication technologies to agricultural vehicular networks often results in high end-to-end delays and loss of packets due to intermittent or broken connectivity. This paper analyses the methods for the successful delivery of the vehicular data within acceptable delay times. Different kinds of data that are generated and transmitted in agricultural networks are considered in this paper, followed by the data prioritization methods which allow critical data to be prioritized against other data. In this regard, Enhanced Distributed Channel Access, Differentiated Services, and application-based data rate variation are discussed in conjunction with the Simple Network Management Protocol. These techniques are simulated or tested separately and then together and the results show that even in poor network conditions, high-prioritized data is not lost or delayed.
This paper presents a framework for OMNeT++ which includes time synchronization model for WLANs. Synchronization is based on the Generalized Precision Time Protocol (gPTP) standard, which aims to achieve an accuracy of less than 100 nanoseconds. The presented model is developed and implemented in OMNeT++, a discrete event network simulator, using its INET library. A new type of WLAN node is modeled which supports time synchronization at the Link layer. A clock module for WLAN nodes is also modeled which implements variable clock drift to simulate noise interference in clock frequency oscillators. Simulations with our WLAN nodes are done and the results show that using gPTP based time synchronization in wireless networks, accuracy of ±3ns can be achieved.
Der Beitrag beschreibt als Werkstattbericht die Kombination des Inverted Classroom Modells mit der agilen Entwicklungsmethodik von Scrum zu einem Veranstaltungskonzept für ein Grundlagenfach der Informatik. Neben der fachspezifischen Lehre wird dadurch das Vorgehen die in der Informatik immer wichtiger werdende agile Entwicklungsmethodik zum überfachlichen Kompentenzerwerb adressiert. Der Beitrag stellt die Umsetzung der agilen Lehrmethodik vor und gibt erste Rückmeldungen aus Sicht von Studierenden und Lehrenden.
Der Beitrag beschreibt die Entwicklung eines Inverted Classroom Konzeptes für ein Informatik-Grundlagenfach an einer Hochschule. Basierend auf Vorlesungsaufzeichnungen und Vorlesungsskript wurde hierbei besonderes Augenmerk auf die Gestaltung der gemeinsamen Präsenzzeit zwischen Studierenden und Lehrenden gelegt. Durch zahlreiche aktivierende Elemente sind die Studierenden hierbei gefordert, ihren Lernprozess selbst zu gestalten, um somit über die fachlichen Kompetenzen des Faches hinaus auch überfachliche Kompetenzen, wie beispielsweise Kommunikations- und Kooperationskompetenz, Selbstlernkompetenz und Eigenverantwortung zu trainieren.
Die Anforderungen an zukünftige Teilnehmende eines Arbeitsmarktes verändern sich. Das von Frithjof Bergmann begründete Prinzip der Neuen Arbeit (Bergmann, 2004) ist aktuell Gegenstand zahlreicher Diskussionen und Debatten über aktuelle und zukünftige Arbeitswelten. Die sich daraus ergebenden Kompetenzanforderungen passen mit der Lehre in Hochschulen wenig zusammen. Zunehmend werden agile Lernszenarien diskutiert.
Das Inverted Classroom Modell (ICM) erfreut sich seit einigen Jahren großer Beliebtheit in der Hochschullehre. Aus Studierendensicht ist die Teilnahme an einer ICM-Veranstaltung aber eine Herausforderung. Für ein erfolgreiches Lernen sind insbesondere personale Kompetenzen wie Selbstmotivation, Durchhaltevermögen und Selbstregulationskompetenz erforderlich (Pöpel & Morisse, 2019). Um diesem Umstand entgegenzuwirken, wurde vom Autor ICM mit Ideen aus Scrum für eine Informatik-Lehrveranstaltung kombiniert (siehe auch (Morisse & Heidemann, 2021)). Die Wirkung von Scrum kann sich nur entfalten, wenn die Arbeit in einzelne Sprints aufgeteilt wird und bei der Bearbeitung der Sprints auch die eigene Zusammenarbeit im Rahmen einer Retrospektive kritisch reflektiert wird. Zu diesem Zweck wird der gesamte Inhalt der Lehrveranstaltung in eine Anzahl von thematischen Blöcken aufgeteilt, die als Lehr- und Lerninhalte für die Lern-Sprints der Scrum-Umsetzung werden. Für jeden Themenblock müssen die theoretischen Inhalte erarbeitet sowie eine eigenständige Zusammenfassung formuliert werden. Ergänzend dazu wurde ein Software-Produkt definiert, in dessen Rahmen die theoretischen Inhalte einfließen konnten.
Die Durchführung eines Reviews und einer Retrospektive schließen bei Scrum einen Sprint ab. Genau dies lässt sich auch im Hochschulkontext sehr gut als Feedback-Instrument durchführen. Das Review bestand in der Inspektion der entwickelten Software. Mit der Retrospektive wird die eigene Zusammenarbeit im Team kritisch reflektiert. Ein besonderes Augenmerk verdient der kommunikative Stil zwischen Lehrenden und Studierenden. Bei einem Veranstaltungskonzept, welches getragen wird von Interaktion und Diskussion, kommt einer empathischen und wertschätzenden Kommunikation eine besondere Bedeutung zu. Das dies in der vorgestellten Veranstaltung scheinbar gelungen ist, zeigt das Zitat eines der teilnehmenden Studierenden „Ich freue mich immer auf die Review-Termine“. Zur Erinnerung: Das Review ist der Termin zur Vorstellung des erreichten Ergebnisses, also eher ein Prüfungs-Setting, bei dem Studierende ihre Arbeit präsentieren. Weitere positive Resonanzmerkmale durch die Studierenden waren die hoffnungsvollen Fragen, ob denn die Veranstaltungen im kommenden Semester auch nach ICMScrum organisiert sind.