Refine
Year of publication
Document Type
- Article (16)
- Master's Thesis (11)
- Bachelor Thesis (8)
- Book (3)
- Doctoral Thesis (1)
Is part of the Bibliography
- no (39) (remove)
Keywords
- Landschaftsarchitektur (5)
- Building Information Modeling (4)
- BIM (2)
- 3D (1)
- 3D-Modell (1)
- Aktionsplan (1)
- Außenanlagen (1)
- AwSV (1)
- Açaí (1)
- BUmwS (1)
Institute
- Fakultät AuL (39) (remove)
Background:
Etomidate is typically used as an induction agent in cardiac surgery because it has little impact on hemodynamics. It is a known suppressor of adrenocortical function and may increase the risk for post-operative infections, sepsis, and mortality. The aim of this study was to evaluate whether etomidate increases the risk of postoperative sepsis (primary outcome) and infections (secondary outcome) compared to propofol.
Methods:
This was a retrospective before–after trial (IRB EA1/143/20) performed at a tertiary medical center in Berlin, Germany, between 10/2012 and 01/2015. Patients undergoing cardiac surgery were investigated within two observation intervals, during which etomidate and propofol were the sole induction agents.
Results:
One-thousand, four-hundred, and sixty-two patients, and 622 matched pairs, after caliper propensity-score matching, were included in the final analysis. Sepsis rates did not differ in the matched cohort (etomidate: 11.5% vs. propofol: 8.2%, p = 0.052). Patients in the etomidate interval were more likely to develop hospital-acquired pneumonia (etomidate: 18.6% vs. propofol: 14.0%, p = 0.031).
Conclusion:
Our study showed that a single-dose of etomidate is not statistically associated with higher postoperative sepsis rates after cardiac surgery, but is associated with a higher incidence of hospital-acquired pneumonia. However, there is a notable trend towards a higher sepsis rate.
Background:
Cardiac surgery patients represent a high-risk cohort in intensive care units (ICUs). Central venous pressure (CVP) measurement seems to remain an integral part in hemodynamic monitoring, especially in cardio-surgical ICUs. However, its value as a prognostic marker for organ failure is still unclear. Therefore, we analyzed postoperative CVP values after adult cardiac surgery in a large cohort with regard to its prognostic value for morbidity and mortality.
Methods:
All adult patients admitted to our ICUs between 2006 and 2019 after cardiac surgery were eligible for inclusion in the study (n = 11,198). We calculated the median initial CVP (miCVP) after admission to the ICU, which returned valid values for 9802 patients. An ROC curve analysis for optimal cut-off miCVP to predict ICU mortality was conducted with consecutive patient allocation into a (a) low miCVP (LCVP) group (≤11 mmHg) and (b) high miCVP (HCVP) group (>11 mmHg). We analyzed the impact of high miCVP on morbidity and mortality by propensity score matching (PSM) and logistic regression.
Results:
ICU mortality was increased in HCVP patients. In addition, patients in the HCVP group required longer mechanical ventilation, had a higher incidence of acute kidney injury, were more frequently treated with renal replacement therapy, and showed a higher risk for postoperative liver dysfunction, parametrized by a postoperative rise of ≥ 10 in MELD Score. Multiple regression analysis confirmed HCVP has an effect on postoperative ICU-mortality and intrahospital mortality, which seems to be independent.
Conclusions:
A high initial CVP in the early postoperative ICU course after cardiac surgery is associated with worse patient outcome. Whether or not CVP, as a readily and constantly available hemodynamic parameter, should promote clinical efforts regarding diagnostics and/or treatment, warrants further investigations.
Preoperative medication use and development of postoperative delirium and cognitive dysfunction
(2021)
Postoperative delirium (POD) and postoperative (neuro-)cognitive disorder (POCD) are frequent and serious complications after operations. We aim to investigate the association between pre-operative polypharmacy and potentially inappropriate medications and the development of POD/POCD in elderly patients. This investigation is part of the European BioCog project (www.biocog.eu), a prospective multicenter observational study with elderly surgical patients. Patients with a Mini-Mental State Examination score less than or equal to 23 points were excluded. POD was assessed up to 7 days after surgery using the Nursing Delirium Screening Scale, Confusion Assessment Method (for the intensive care unit [ICU]), and a patient chart review. POCD was assessed 3 months after surgery with a neuropsychological test battery. Pre-operative long-term medication was evaluated in terms of polypharmacy (≥5 agents) and potentially inappropriate medication (defined by the PRISCUS and European list of potentially inappropriate medications [EU(7)-PIM] lists), and associations with POD and POCD were analyzed using logistic regression analysis. Eight hundred thirty-seven participants were included for analysis of POD and 562 participants for POCD. Of these, 165 patients (19.7%) fulfilled the criteria of POD and 60 (10.7%) for POCD. After adjusting for confounders, pre-operative polypharmacy and intake of potentially inappropriate medications could not be shown to be associated with the development of POD nor POCD. We found no associations between pre-operative polypharmacy and potentially inappropriate medications and development of POD and POCD. Future studies should focus on the evaluation of drug interactions to determine whether patients benefit from a pre-operative adjustment.
The benzodiazepine, midazolam, is one of the most frequently used sedatives in intensive care medicine, but it has an unfavorable pharmacokinetic profile when continuously applied. As a consequence, patients are frequently prolonged and more deeply sedated than intended. Due to its distinct pharmacological features, including a cytochrome P450-independent metabolization, intravenous lormetazepam might be clinically advantageous compared to midazolam. In this retrospective cohort study, we compared patients who received either intravenous lormetazepam or midazolam with respect to their survival and sedation characteristics. The cohort included 3314 mechanically ventilated, critically ill patients that received one of the two drugs in a tertiary medical center in Germany between 2006 and 2018. A Cox proportional hazards model with mortality as outcome and APACHE II, age, gender, and admission mode as covariates revealed a hazard ratio of 1.75 [95% CI 1.46–2.09; p < 0.001] for in-hospital mortality associated with the use of midazolam. After additionally adjusting for sedation intensity, the HR became 1.04 [95% CI 0.83–1.31; p = 0.97]. Thus, we concluded that excessive sedation occurs more frequently in critically ill patients treated with midazolam than in patients treated with lormetazepam. These findings require further investigation in prospective trials to assess if lormetazepam, due to its ability to maintain light sedation, might be favorable over other benzodiazepines for sedation in the ICU.
Objective:
The cervical mucus plugs are enriched with proteins of known immunological functions. We aimed to characterize the anti-HIV-1 activity of the cervical mucus plugs against a panel of different HIV-1 strains in the contexts of cell-free and cell-associated virus.
Design:
A cohort of consenting HIV-1-negative and HIV-1-positive pregnant women in labour was recruited from Mthatha General Hospital in the Eastern Cape province of South Africa, from whom the cervical mucus plugs were collected in 6 M guanidinium chloride with protease inhibitors and transported to our laboratories at −80 °C.
Methods:
Samples were centrifuged to remove insoluble material and dialysed before freeze--drying and subjecting them to the cell viability assays. The antiviral activities of the samples were studied using luminometric reporter assays and flow cytometry. Time-of-addition and BlaM-Vpr virus-cell fusion assays were used to pin-point the antiviral mechanisms of the cervical mucus plugs, before proteomic profiling using liquid chromatography-tandem mass spectrometry.
Results:
The proteinaceous fraction of the cervical mucus plugs exhibited anti-HIV-1 activity with inter-individual variations and some degree of specificity among different HIV-1 strains. Cell-associated HIV-1 was less susceptible to inhibition by the potent samples whenever compared with the cell-free HIV-1. The samples with high antiviral potency exhibited a distinct proteomic profile when compared with the less potent samples.
Conclusion:
The crude cervical mucus plugs exhibit anti-HIV-1 activity, which is defined by a specific proteomic profile.
Background
In DNA methylation analyses like epigenome-wide association studies, effects in differentially methylated CpG sites are assessed. Two kinds of outcomes can be used for statistical analysis: Beta-values and M-values. M-values follow a normal distribution and help to detect differentially methylated CpG sites. As biological effect measures, differences of M-values are more or less meaningless. Beta-values are of more interest since they can be interpreted directly as differences in percentage of DNA methylation at a given CpG site, but they have poor statistical properties. Different frameworks are proposed for reporting estimands in DNA methylation analysis, relying on Beta-values, M-values, or both.
Results
We present and discuss four possible approaches of achieving estimands in DNA methylation analysis. In addition, we present the usage of M-values or Beta-values in the context of bioinformatical pipelines, which often demand a predefined outcome. We show the dependencies between the differences in M-values to differences in Beta-values in two data simulations: a analysis with and without confounder effect. Without present confounder effects, M-values can be used for the statistical analysis and Beta-values statistics for the reporting. If confounder effects exist, we demonstrate the deviations and correct the effects by the intercept method. Finally, we demonstrate the theoretical problem on two large human genome-wide DNA methylation datasets to verify the results.
Conclusions
The usage of M-values in the analysis of DNA methylation data will produce effect estimates, which cannot be biologically interpreted. The parallel usage of Beta-value statistics ignores possible confounder effects and can therefore not be recommended. Hence, if the differences in Beta-values are the focus of the study, the intercept method is recommendable. Hyper- or hypomethylated CpG sites must then be carefully evaluated. If an exploratory analysis of possible CpG sites is the aim of the study, M-values can be used for inference.
BACKGROUND:
Intraoperative electroencephalography (EEG) signatures related to the development of postoperative delirium (POD) in older patients are frequently studied. However, a broad analysis of the EEG dynamics including preoperative, postinduction, intraoperative and postoperative scenarios and its correlation to POD development is still lacking. We explored the relationship between perioperative EEG spectra-derived parameters and POD development, aiming to ascertain the diagnostic utility of these parameters to detect patients developing POD.
METHODS:
Patients aged ≥65 years undergoing elective surgeries that were expected to last more than 60 minutes were included in this prospective, observational single center study (Biomarker Development for Postoperative Cognitive Impairment [BioCog] study). Frontal EEGs were recorded, starting before induction of anesthesia and lasting until recovery of consciousness. EEG data were analyzed based on raw EEG files and downloaded excel data files. We performed multitaper spectral analyses of relevant EEG epochs and further used multitaper spectral estimate to calculate a corresponding spectral parameter. POD assessments were performed twice daily up to the seventh postoperative day. Our primary aim was to analyze the relation between the perioperative spectral edge frequency (SEF) and the development of POD.
RESULTS:
Of the 237 included patients, 41 (17%) patients developed POD. The preoperative EEG in POD patients was associated with lower values in both SEF (POD 13.1 ± 4.6 Hz versus no postoperative delirium [NoPOD] 17.4 ± 6.9 Hz; P = .002) and corresponding γ-band power (POD −24.33 ± 2.8 dB versus NoPOD −17.9 ± 4.81 dB), as well as reduced postinduction absolute α-band power (POD −7.37 ± 4.52 dB versus NoPOD −5 ± 5.03 dB). The ratio of SEF from the preoperative to postinduction state (SEF ratio) was ~1 in POD patients, whereas NoPOD patients showed a SEF ratio >1, thus indicating a slowing of EEG with loss of unconscious. Preoperative SEF, preoperative γ-band power, and SEF ratio were independently associated with POD (P = .025; odds ratio [OR] = 0.892, 95% confidence interval [CI], 0.808–0.986; P = .029; OR = 0.568, 95% CI, 0.342–0.944; and P = .009; OR = 0.108, 95% CI, 0.021–0.568, respectively).
CONCLUSIONS:
Lower preoperative SEF, absence of slowing in EEG while transitioning from preoperative state to unconscious state, and lower EEG power in relevant frequency bands in both these states are related to POD development. These findings may suggest an underlying pathophysiology and might be used as EEG-based marker for early identification of patients at risk to develop POD.
Background
Postoperative delirium (POD) and postoperative cognitive dysfunction (POCD) are frequent and serious complications after surgery. We aim to investigate the association between genetic variants in cholinergic candidate genes according to the Kyoto encyclopedia of genes and genomes - pathway: cholinergic neurotransmission with the development of POD or POCD in elderly patients.
Methods
This analysis is part of the European BioCog project (www.biocog.eu), a prospective multicenter observational study with elderly surgical patients. Patients with a Mini-Mental-State-Examination score ≤ 23 points were excluded. POD was assessed up to seven days after surgery using the Nursing Delirium Screening Scale, Confusion Assessment Method and a patient chart review. POCD was assessed three months after surgery with a neuropsychological test battery. Genotyping was performed on the Illumina Infinium Global Screening Array. Associations with POD and POCD were analyzed using logistic regression analysis, adjusted for age, comorbidities and duration of anesthesia (for POCD analysis additionally for education). Odds ratios (OR) refer to minor allele counts (0, 1, 2).
Results
745 patients could be included in the POD analysis, and 452 in the POCD analysis. The rate of POD within this group was 20.8% (155 patients), and the rate of POCD was 10.2% (46 patients). In a candidate gene approach three genetic variants of the cholinergic genes CHRM2 and CHRM4 were associated with POD (OR [95% confidence interval], rs8191992: 0.61[0.46; 0.80]; rs8191992: 1.60[1.22; 2.09]; rs2067482: 1.64[1.10; 2.44]). No associations were found for POCD.
Conclusions
We found an association between genetic variants of CHRM2 and CHRM4 and POD. Further studies are needed to investigate whether disturbances in acetylcholine release and synaptic plasticity are involved in the development of POD.
Background
In mucosal barrier interfaces, flexible responses of gene expression to long-term environmental changes allow adaptation and fine-tuning for the balance of host defense and uncontrolled not-resolving inflammation. Epigenetic modifications of the chromatin confer plasticity to the genetic information and give insight into how tissues use the genetic information to adapt to environmental factors. The oral mucosa is particularly exposed to environmental stressors such as a variable microbiota. Likewise, persistent oral inflammation is the most important intrinsic risk factor for the oral inflammatory disease periodontitis and has strong potential to alter DNA-methylation patterns. The aim of the current study was to identify epigenetic changes of the oral masticatory mucosa in response to long-term inflammation that resulted in periodontitis.
Methods and results
Genome-wide CpG methylation of both inflamed and clinically uninflamed solid gingival tissue biopsies of 60 periodontitis cases was analyzed using the Infinium MethylationEPIC BeadChip. We validated and performed cell-type deconvolution for infiltrated immune cells using the EpiDish algorithm. Effect sizes of DMPs in gingival epithelial and fibroblast cells were estimated and adjusted for confounding factors using our recently developed “intercept-method”. In the current EWAS, we identified various genes that showed significantly different methylation between periodontitis-inflamed and uninflamed oral mucosa in periodontitis patients. The strongest differences were observed for genes with roles in wound healing (ROBO2, PTP4A3), cell adhesion (LPXN) and innate immune response (CCL26, DNAJC1, BPI). Enrichment analyses implied a role of epigenetic changes for vesicle trafficking gene sets.
Conclusions
Our results imply specific adaptations of the oral mucosa to a persistent inflammatory environment that involve wound repair, barrier integrity, and innate immune defense.
A comparison study on modeling of clustered and overdispersed count data for multiple comparisons
(2021)
Data collected in various scientific fields are count data. One way to analyze such data is to compare the individual levels of the factor treatment using multiple comparisons. However, the measured individuals are often clustered – e.g. according to litter or rearing. This must be considered when estimating the parameters by a repeated measurement model. In addition, ignoring the overdispersion to which count data is prone leads to an increase of the type one error rate. We carry out simulation studies using several different data settings and compare different multiple contrast tests with parameter estimates from generalized estimation equations and generalized linear mixed models in order to observe coverage and rejection probabilities. We generate overdispersed, clustered count data in small samples as can be observed in many biological settings. We have found that the generalized estimation equations outperform generalized linear mixed models if the variance-sandwich estimator is correctly specified. Furthermore, generalized linear mixed models show problems with the convergence rate under certain data settings, but there are model implementations with lower implications exists. Finally, we use an example of genetic data to demonstrate the application of the multiple contrast test and the problems of ignoring strong overdispersion.
Objectives: To measure and assess the economic impact of adherence to a single quality indicator (QI) regarding weaning from invasive ventilation.
Design: Retrospective observational single-centre study, based on electronic medical and administrative records.
Setting: Intensive care unit (ICU) of a German university hospital, reference centre for acute respiratory distress syndrome.
Participants: Records of 3063 consecutive mechanically ventilated patients admitted to the ICU between 2012 and 2017 were extracted, of whom 583 were eligible adults for further analysis. Patients’ weaning protocols were evaluated for daily adherence to quality standards until ICU discharge. Patients with <65% compliance were assigned to the low adherence group (LAG), patients with ≥65% to the high adherence group (HAG).
Primary and secondary outcome measures: Economic healthcare costs, clinical outcomes and patients’ characteristics.
Results: The LAG consisted of 378 patients with a median negative economic results of −€3969, HAG of 205 (−€1030), respectively (p<0.001). Median duration of ventilation was 476 (248; 769) hours in the LAG and 389 (247; 608) hours in the HAG (p<0.001). Length of stay (LOS) in the LAG on ICU was 21 (12; 35) days and 16 (11; 25) days in the HAG (p<0.001). LOS in the hospital was 36 (22; 61) days in the LAG, and within the HAG, respectively, 26 (18; 48) days (p=0.001).
Conclusions: High adherence to this single QI is associated with better clinical outcome and improved economic returns. Therefore, the results support the adherence to QI. However, the examined QI does not influence economic outcome as the decisive factor.
Die vorliegende Bachelorarbeit behandelt das Thema das betriebliche Ideenmanagement. Das Ziel ist den Prozess zur Einreichung, Evaluierung und Umsetzung von Ideen weiterzuentwickeln und zu digitalisieren.
Um das Ziel zu erreichen, werden Primärdaten mit Hilfe von fünf qualitativen Interviews und einer quantitativen Umfrage mit 50 Mitarbeitern erhoben. Abgesehen davon wurden auch Daten aus der Sekundärforschung erfasst, deren Bestandteile die internen Unterlagen zum bestehenden Ideenmanagement dem Status quo, und wissenschaftliche Quellen sind.
During gestation, the most drastic change in oxygen supply occurs with the onset of ventilation after birth. As the too early exposure of premature infants to high arterial oxygen pressure leads to characteristic diseases, we studied the adaptation of the oxygen sensing system and its targets, the hypoxia-inducible factor- (HIF-) regulated genes (HRGs) in the developing lung. We draw a detailed picture of the oxygen sensing system by integrating information from qPCR, immunoblotting, in situ hybridization, and single-cell RNA sequencing data in ex vivo and in vivo models. HIF1α protein was completely destabilized with the onset of pulmonary ventilation, but did not coincide with expression changes in bona fide HRGs. We observed a modified composition of the HIF-PHD system from intrauterine to neonatal phases: Phd3 was significantly decreased, while Hif2a showed a strong increase and the Hif3a isoform Ipas exclusively peaked at P0. Colocalization studies point to the Hif1a-Phd1 axis as the main regulator of the HIF-PHD system in mouse lung development, complemented by the Hif3a-Phd3 axis during gestation. Hif3a isoform expression showed a stepwise adaptation during the periods of saccular and alveolar differentiation. With a strong hypoxic stimulus, lung ex vivo organ cultures displayed a functioning HIF system at every developmental stage. Approaches with systemic hypoxia or roxadustat treatment revealed only a limited in vivo response of HRGs. Understanding the interplay of the oxygen sensing system components during the transition from saccular to alveolar phases of lung development might help to counteract prematurity-associated diseases like bronchopulmonary dysplasia.
Background
A peripheral venous catheter (PVC) is the most widely used device for obtaining vascular access, allowing the administration of fluids and medication. Up to 25% of adult patients, and 50% of pediatric patients experience a first-attempt cannulation failure. In addition to patient and clinician characteristics, device features might affect the handling and success rates. The objective of the study was to compare the first-attempt cannulation success rate between PVCs with wings and a port access (Vasofix® Safety, B. Braun, abbreviated hereon in as VS) with those without (Introcan® Safety, B. Braun, abbreviated hereon in as IS) in an anesthesiological cohort.
Methods
An open label, multi-center, randomized trial was performed. First-attempt cannulation success rates were examined, along with relevant patient, clinician, and device characteristics with univariate and multivariate analyses. Information on handling and adherence to use instructions was gathered, and available catheters were assessed for damage.
Results
Two thousand three hundred four patients were included in the intention to treat analysis. First-attempt success rate was significantly higher with winged and ported catheters (VS) than with the non-winged, non-ported design (IS) (87.5% with VS vs. 78.2% with IS; PChi < .001). Operators rated the handling of VS as superior (rating of “good” or “very good: 86.1% VS vs. 20.8% IS, PChi < .001). Reinsertion of the needle into the catheter after partial withdrawal—prior or during the catheterization attempt—was associated with an increased risk of cannulation failure (7.909, CI 5.989–10.443, P < .001 and 23.023, CI 10.372–51.105, P < .001, respectively) and a twofold risk of catheter damage (OR 1.999, CI 1.347–2.967, P = .001).
Conclusions
First-attempt cannulation success of peripheral, ported, winged catheters was higher compared to non-ported, non-winged devices. The handling of the winged and ported design was better rated by the clinicians. Needle reinsertions are related to an increase in rates of catheter damage and cannulation failure.
"The limits of my language are the limits of my mind. All I know is what I have words for" (Wittgenstein). When learning something completely new, we connect the unknown term to an already existing part of our knowledge. We can only build new ideas and insights upon an existing conceptual foundation. In the field of statistics, we educators frequently find ourselves met with great confusion when teaching novices. These students, entirely unfamiliar with even basic statistics, must connect the introduced statistical terms within their personal existing networks of largely non-statistical knowledge. Lecturers, on the other hand, who are well versed in statistics, have deeply internalized the content to be taught and its relevant context. The juxtaposition of the two roles may produce amusement in a lecturer upon gaining insight into the word associations made by the statistical novices. For example, a ‘logistic regression’ does not involve the ‘shipping of goods in economically difficult times,’ though this might seem entirely reasonable and intuitive to the statistics learner. Other times, these different perspectives can lead to headaches and frustration for both learners and their lecturers. In this article, we illustrate how simple statistical terms are initially connected to a student’s pre-exiting knowledge and how these associations change after completing an introductory course in applied statistics. Furthermore, we emphasize the important difference between “term”, “approach”, and “context”. Understanding this fundamental distinction may help improve the communication between the lecturer and the learner. We offer a collection of practical tools for instructors to help promote students’ conceptual understanding in a supportive, mutually-beneficial learning environment.
In diesem Buch sind Lehrbeispiele gesammelt, die Dozierenden wertvolle Anregungen für ihre eigene Lehre liefern: Es werden Ideen für einzelne Übungen, Unterrichtseinheiten, Prüfungen oder ganze Kurse vorgestellt. Die benötigten Materialien sind für die Nutzer online frei verfügbar, um die Anwendung zu vereinfachen.
Alle Beiträge dieses Buches wurden 2020 für den Preis für das beste Health-Data-Science-Lehrmaterial eingereicht, der von der Arbeitsgruppe Lehre und Didaktik der Biometrie der Deutschen Region der Internationalen Biometrischen Gesellschaft und der GMDS ausgeschrieben wurde. So entstand ein breiter Querschnitt an Beiträgen für lebendige Lehre in Biometrie, Epidemiologie, Public Health und ähnlichen Gebieten.
Das Buch knüpft damit an die beiden Bände Zeig mir Biostatistik! und Zeig mir mehr Biostatistik! an, denen ähnliche Ausschreibungen vorausgingen.
Die Herausgeber unterrichten Biometrie als Haupt- oder Nebenfach an verschiedenen Universitäten bzw. Hochschulen. Es verbindet sie das gemeinsame Ziel, den Austausch von Ideen und ausgereiftem Unterrichtsmaterial im Bereich Health Data Science zu fördern.
Die funktionale Wiedervernetzung von Ökosystemen ist ein notwendiger und entscheidender Beitrag zur nachhaltigen Sicherung der Artenvielfalt. In der nationalen Strategie zur Biologischen Vielfalt 2007 ist formuliert, dass von Verkehrswegen bis 2020 in der Regel keine erheblichen Beeinträchtigungen des Biotopverbundsystems ausgehen (sollen). In der EU-Biodiversitätsstrategie 2030 ist formuliert, dass es für ein wirklich kohärentes und resilientes transeuropäisches Naturschutznetz wichtig sein wird, ökologische Korridore zu schaffen, um eine genetische Isolierung zu verhindern, die Migration von Arten zu ermöglichen und gesunde Ökosysteme zu erhalten und zu verbessern.
Umsetzung rechtlicher Anforderungen in der Bauleitplanung am Beispiel der Seveso-II-Richtlinie
(2015)
Die Umstände des globalen Klimawandels erfordern zukünftig auch in Hannover eine Neuauswahl der Stadtbaumarten zugunsten hitze- und trockenheitstoleranter Arten. In Zusammenarbeit mit der Stadt Hannover wurde ein Baumentwicklungskonzept für zukünftige Baumpflanzungen in der Landeshauptstadt erarbeitet. Im Konflikt zwischen Schutz der heimischen Flora und Fauna und Maßnahmen der Klimaanpassung wurde die „Assisted Migration“ als Ansatz und Kompromiss zwischen beiden Bereichen gewählt. Hierbei werden Arten durch gezielte Eingriffe parallel zum Verlauf der theoretischer Arealverschiebung der Klimaerwärmung bewegt. Um mögliche Herkunftsgebiete für diese Arten zu finden, wurden auf europäischer Ebene klimatische Analoggebiete für Hannovers zukünftiges Klima gesucht. Das Klima verschiedener Standorttypen Hannovers wurde mithilfe von aktuellen klimatischen Szenarios für den Zeitraum 2080-2100 projektiert und anschließend europaweit mit dem lokalen Klima der Periode 1970-2000 verglichen. Gebiete Süd- und Südosteuropas verfügen über klimatischen Eigenschaften, welche dem in Hannover zukünftig erwarteten Klima entsprechen. Sie wurden auf ihr Gehölzvorkommen untersucht. Unter Einbezug der natürlichen Standortbedingungen und bereits gemachter Erfahrungen wurde eine umfangreiche Artenliste erarbeitet. Diese schlägt Baumarten vor, die zukünftig an die Klimabedingungen angepasst sind und jetzt und im Verlauf der nächsten Jahrzehnte an verschiedenen Standorten Hannovers gepflanzt werden können.
In dieser Arbeit soll an der Schnittstelle zwischen nachhaltiger Ernährung und nachhaltiger Landwirtschaft ein konkreter Planungsvorschlag eines AFS zur Anlage an der Hochschule (HS) Osnabrück entworfen werden. Auf diese Weise soll aufgezeigt werden, wie Agroforstsysteme zur Realisierung der Ziele der Planetary Health Diet beitragen können. Das so entstehende AFS soll zukünftig auch zu einem ernährungswissenschaftlichen Ort des Lehrens und
Lernens weiterentwickelt werden können – zum Beispiel einem Lehr- und Lerngarten. Auf diese Weise soll eine nachhaltige Ernährungsweise, die PHD in einem zukunftsweisenden Anbausystem, dem AFS pflanzenbaulich dargestellt werden. Hierzu sollen auch Standortfaktoren und Betriebsspiegel des Versuchsbetriebes der Hochschule geschickt einbezogen werden.
Die vorliegende Abschlussarbeit befasst sich mit der Arbeitsweise des Building Information Modeling (BIM) in der Landschaftsarchitektur und der Untersuchung von Modellierungsop-tionen für Vegetationsobjekte. Wenngleich Vegetation einen wesentlichen Bestandteil der Planung von Außenanlagen darstellt, gibt es für den allgemeinen Umgang mit Bepflanzung in BIM bisher noch keine ausgereiften Konzepte. Insbesondere die Planung von Stauden-flächen wird in digitalen Modellen bisher kaum thematisiert. Es fehlen darüber hinaus allge-meine Workflows, um die Bepflanzungsplanung in den Prozess des Building Information Modeling zu integrieren. Das vorrangige Ziel dieser Arbeit ist daher die Entwicklung von exemplarischen Arbeitsab-läufen für das Aufgabenfeld der Bepflanzungsplanung innerhalb der 3D-Modellierungssoft-ware Autodesk Revit. Um die Potentiale des Programms bestmöglich zu nutzen, werden zudem die visuellen Programmierwerkzeuge des Softwaremoduls Dynamo verwendet. Die in Dynamo entwickelten benutzerdefinierten Tools ergänzen die Standardfunktionen von Revit und können für spezifische Modellierungsaufgaben wiederholt zum Einsatz kommen. Zum einen basiert die Modellierung in Revit auf den BIM-Grundlagen der Fertigstellungsgrade und Anwendungsfälle. Zum anderen soll durch das Modell ein automatisiertes Ableiten von Bepflanzungsplänen ermöglicht werden. Eine Analyse spezialisierter Softwareprodukte für die ‚Grüne Branche‘ gibt Aufschluss über die möglichen Funktionen der zu erstellenden Skripte in Dynamo. Der Workflow in Revit wird an einem Beispielprojekt veranschaulicht. Anhand eines Entwurfes für die Außenanlagen des Wohnkomplexes ‚Charlie Living‘ in Berlin wird somit ein vereinfachtes Modell angefertigt. Das Vegetationsmodell wird sukzessive für die Fertigstellungsgrade 100 bis 300 detailliert und enthält Bepflanzungselemente für Bäume, Hecken, Stauden und Pflanzflächen. Die Vegetationselemente werden mit zusätzlichen alphanumerischen Daten versehen und abschließend in einem Bepflanzungsplan dargestellt. Der Modellierungsprozess wird insgesamt mit zehn verschiedenen benutzerdefinierten Dynamo-Tools unterstützt und automatisiert. Anhand des Modellierungserfolges konnte eine generelle Eignung der BIM-Software Revit für die Anforderungen der Bepflanzungsplanung festgestellt werden. Die dargelegten Workflows in dieser Abschlussarbeit könnten demnach auch für das Modellieren von Vegetationsobjekten in anderen BIM-Projekten mit vergleichbarer Software Anwendung finden.
Inhalt dieser Arbeit ist die Entwicklung und Durchführung eines BIM-Workflows für die Erfassung, Aufbereitung und Weiterbearbeitung von Gelände-Bestandsdaten in der Landschaftsarchitektur. Der entwickelte Workflow basiert auf der Analyse vorliegender BIM-Richtlinien und Leitfäden aus dem Bereich der Infrastrukturplanung. Es wird herausgestellt, welche Anforderungen an Bestandsdaten in BIM gestellt werden. Diese können auf Grund überschneidender Inhalte auf die Fachdisziplin der Freiraumplanung übertragen werden. Der Workflow integriert auf der einen Seite 3D-Bestandsdaten der Vermessungsämter, auf der anderen Seite Vermesserdaten aus der Ingenieurvermessung. Die Daten werden für die Weiterverwendung in BIM-Softwares aufbereitet und an diese übergeben. Auf Grundlage eines Projektbeispiels wird in fünf verschiedenen BIM-Programmen die Erstellung eines Digitalen Geländemodells anhand derselben Punktedatei durchgeführt und dokumentiert. Die erstellten Geländemodelle werden in dasselbe Datenformat exportiert und hinsichtlich ihrer Übereinstimmung und Genauigkeit mittels ausgewählter Vergleichsmethoden geprüft. Abschließend werden einige Werkzeuge des Plug-ins ‚Environment‘ für die Modellierung und Weiterbearbeitung von Geländemodellen in Autodesk Revit getestet und bewertet. Die praktische Umsetzung des entwickelten Workflows wird detailliert im Anhang aufgezeigt.
Mountainbiking ist eine stark wachsende Natursportart mit einer hohen Teilnehmerzahl an Downhill- Mountainbikern im nördlichen Harz. Aufgrund der Wegebelastung entstehen soziale Konflikte und ökologische Auswirkungen, weshalb attraktive Strecken entwickelt und umweltschonende Lenkungsmaßnahmen durchgeführt werden müssen. Die Umfrage, die im Zuge dieser Arbeit durchgeführt wurde, ergab, dass die Anforderungen der Mountainbiker naturnahe, schmale und technisch anspruchsvolle Strecken sind. Die Auswirkungen des Mountainbikings betreffen die Tierwelt und sensible Gebiete abseits vorhandener Wege. Für die erfolgreiche Lenkung der Mountainbiker ist Kommunikation zwischen allen Beteiligten in der Landschaftsplanung erforderlich. Es ist auf eine umweltschonende Bauweise, gezielte Streckenführung, klare Beschilderungen, technische Herausforderungen und Wegequalitäten zu achten. Der Ausbau vorhandener Wegeinfrastruktur und aktive Lenkungsmaßnahmen im Harz können zu einer konfliktfreien und umweltfreundlichen Situation des Mountainbikings führen. Zusätzliche Forschungsarbeiten mit konkreten Schwerpunkten einzelner Lenkungskriterien oder ökologischen Auswirkungen können das Management von Mountainbike- Strecken erleichtern.
Der Ökologische Landbau hat als Ziel die Biodiversität, die vor allem durch die Flora beeinflusst wird, zu stärken. In Verbindung mit dem Ertragsziel der landwirtschaftlichen Produktion ergibt sich dadurch die Frage, mit welchen Maßnahmen sowohl eine höhere Beikrautbiodiversität als auch die Ertragssicherung kombiniert werden können.
Hierzu wurde in der Nähe von Osnabrück ein einjähriger Versuch mit ökologisch angebauter Wintertriticale angelegt. Der Versuch wurde als Split-Plot-Design mit 4 Blöcken und Variationen von Saattermin, Saatstärke und mechanischer Beikrautregulierung an zwei Terminen im Frühjahr, auch mit Hackvarianten in 25 cm Reihenabstand, angelegt und von März 2022 bis zur Ernte im Juli 2022 regelmäßig auf vegetative und später auch generative Triticaleparameter sowie auf das Auftreten verschiedener Beikrautarten und den Beikrautdeckungsgrad geprüft.
Durch den frühen Saattermin am 18.10.2021 konnte verglichen mit dem späten Saattermin am 01.11.2021 aufgrund der längeren Wachstumsphase ein erhöhtes vegetatives Wachstum der Triticale erreicht werden. Ebenso wurde die Zahl der Beikrautindividuen und -arten gefördert, da sich insbesondere Herbstkeimer durch die zeitige Aussaat besser etablieren konnten. Eine erhöhte Konkurrenzwirkung konnte aufgrund von indifferentem Beikrautdeckungsgrad und gleichbleibender Beikrautbiomasse nicht festgestellt werden. Der Kornertrag wurde nicht beeinflusst, aber der Proteingehalt stieg um etwa 0,5 Prozentpunkte an. Entsprechend kann geschlussfolgert werden, dass die Beikrautbiodiversität durch die frühere Aussaat gefördert wurde, während der Strohertrag stieg, der Kornertrag gleichblieb und der Proteingehalt marginal sank.
Die erhöhte Saatstärke führte wie zu erwarten zu einer höheren Bestandesdichte, die auch zu einem höheren Kulturdeckungsgrad führte. Die daraus resultierende höhere Konkurrenzkraft der Triticale führte zu weniger Beikrautbiomasse und weniger Beikrautindividuen sowie -arten. Allerdings konnte in puncto Kornertrag kein Einfluss der Saatstärke festgestellt werden, da die höhere Ährendichte bei höherer Saatstärke durch das Ährengewicht ausgeglichen wurde. Der Proteingehalt stieg sogar durch die reduzierte Saatstärke. Entsprechend kann die reduzierte Aussaatstärke empfohlen werden, da sie positiv für die Beikräuter, indifferent für Stroh- und Kornertrag und positiv für den Proteingehalt eingeschätzt wird. Darüber hinaus können Saatgutkosten eingespart werden.
Den stärksten Einfluss auf Beikräuter und Triticale hatte allerdings die mechanische Beikrautregulierung. Das vegetative und generative Wachstum der einfachen Hackvariante in 25 cm Reihenabstand hat im Vergleich zur Striegelvariante deutliche Vorteile gezeigt. Auch der Proteingehalt und -ertrag konnte erhöht werden. Die intensive Hackvariante mit zusätzlichem Einsatz einer Rotary Hoe verhielt sich intermediär, da sie vermutlich die Kulturpflanze geschädigt hat.
Dagegen wies die Striegelvariante im Vergleich zur intensiven Hackvariante die höchste Zahl an Beikrautarten auf, während allerdings auch Beikrautdeckungsgrad, -biomasse und -individuenzahl maximal waren. Die intensive Hackvariante wies dagegen das ausgeglichenste Beikrautartenverhältnis auf (geringe Dominanz, hohes SDI). Bezüglich der Beikrautparameter verhielt sich die normale Hackvariante intermediär. Bei der normalen Hackvariante konnten entsprechend sämtliche Ertragsparameter maximiert werden, während sich die Beikrautparameter nicht signifikant veränderten. Die Beikrautvielfalt und -abundanz tendierte zu sinken, während die Ausgeglichenheit der Beikrautarten zunahm und entsprechend dominante Arten, wie Acker-Frauenmantel (Aphanes arvensis L.) an Bedeutung verloren haben, was eine Zönose vorbeugt.
Technological support options for the usage of Brazilian Açaí berries in the European Food Market
(2022)
The highly perishable fruit açaí grows on palm trees in northern Brazil and is colloquially known as a berry with high nutritional value. The seed of the drupe makes up around 85 percent of the fruits weight and only the pulp around the seed is used for human consumption. The manufacturing step after harvest includes the pulping and the preservation of the fruit. The preservation step is necessary, because the açaí pulp contains a high microbial load. There are several preservation processes including the use of chlorinated or ozonated water, alcoholic fermentation, pasteurization, freezing or dehydration. Those techniques are overall not very gentle and have the potential to leave residues in the final product, which can change its typical sensorial characteristics. Therefore, an experiment was conducted, to see if a relatively new gentle preservation method called PEF can reduce the microbial load in an açaí- smoothie.
For this purpose, a PEF-machine was built and verified based on the paper from HEINZ ET AL. [2003]. The self-built machine works efficiently, when there is a reduction of microorganisms like Escherichia coli in apple juice due to the induced Pulsed Electric Fields. If this is the case, the described experiment with açaí-smoothie can be carried out with the self-built PEF- machine. In this experiment the results of the validation of this PEF-machine were not comparable to those from the paper from HEINZ ET AL. [2003]. So, the self-built PEF-machine in Brazil did not work sufficiently. Hence, the experiment which should show that a reduction of microorganisms, such as Escherichia coli, in açaí-smoothie with PEF is possible, was performed in Germany. It was accrued out at ELEA with using the PEFPilotTM Dual. This experiment confirmed the assumption, that microorganisms can be reduced in açaí-smoothie with PEF. Escherichia coli was reduced by 2 logs, Saccharomyces cerevisiae by 3 logs and Lactobacillus plantarum by 6 logs. And a comparison between PEF and the known preservation methods for açaí showed that it can be a compatible alternative.
Moreover, the topic, how açaí fits into the European Food Market is answered within this paper. When offering açaí food products to the European population, ideas can be originated from the well-working Brazilian market. It can be helpful to mix açaí with known European fruits for a better acceptance by the people. Then açaí can help to meet the Europeans needs of the current time for fresh and healthy food, especially when preserved with PEF. Furthermore, it is important to work towards a sustainable supply chain system from the cultivation until the unloading at the destination in Europe. Sustainability is important for the integration in the European market, not only for environmental protection, but also in terms of social stability and marketing purposes. In addition, access requirements, further food-related regulations, and the seasonality of açaí present a major hurdle.
Building on this thesis, further papers shall be written, not only in the field of the preservation of the açaí pulp with PEF, but also in the direction of combined preservation methods for açaí, the sustainable usage of the açaí seeds, product innovations containing the Brazilian fruit or various market research.
Die vorliegende Masterarbeit befasst sich mit dem Thema der Darstellung von Vegetation im Kontext des Building Information Modeling (BIM) und hierbei insbesondere mit der Entwicklung eines Datenmodells für ausgewählte Baumarten.
Die Anwendung der BIM-Methode wird in der Landschaftsarchitektur zunehmend gefordert. Zurzeit sind die Integration und die Arbeit mit der BIM-Methode noch mit großen Herausforderungen verbunden. Für die Landschaftsarchitektur fehlen definierte Objekte im internationalen, herstellerneutralen Austauschformat Industry Foundation Classes (IFC). Es fehlen neben den Objekten des Freiraums die Workflows zur Modellierung der Objekte, die beschreibenden Informationen und die Zuordnung zu den Detaillierungsgraden.
Das Ziel der vorliegenden Masterarbeit besteht darin, eine Methode zum Generieren von parametrischen Baummodellen zu entwickeln. Es werden individuelle Baummodelle in der CAD/BIM-Software Autodesk Revit modelliert. Die Baummodelle sollen den Lebenszyklus einer Pflanze abbilden. Das in dieser Arbeit erstellte Baummodell ermöglicht die Abbildung einer Vielzahl von Kronen- und Wurzelformen. Die generierten Baummodelle beinhalten Wachstumsfunktionen mit spezifischen Parametern für die Gesamthöhe, die lichte Stammhöhe, den größten Kronendurchmesser, die Höhe des größten Kronendurchmessers sowie Länge und Tiefe der Wurzel. Zusätzlich zur Geometrie des Modells werden relevante Informationen als konsistenter Parametersatz definiert. Die Informationen können den BIM-Anwendungsfällen zugeordnet werden. Die Parametersätze für das Erscheinungsbild der Modelle und die Informationen zu den Eigenschaften werden über Dynamo gesteuert. Das ermöglicht den direkten Austausch der Modelle und der zugehörigen Informationen.
Ein erläuterndes Video (HAVERLAND 2022) zur Vorgehensweise und den Ergebnissen findet sich unter https://youtu.be/Azx3mPMu3Ng
Im Rahmen der vorliegenden Masterarbeit im Studiengang Landschaftsarchitektur an der Hochschule Osnabrück wurden Untersuchungen zur Winteraktivität der Zwergfledermaus (Pipistrellus pipistrellus) in Osnabrück (Niedersachsen) durchgeführt und Methoden zum ultraschallakustischen Nachweis von Gebäudequartieren erprobt und weiterentwickelt. Vorausgegangen war eine Online-Umfrage bei 17 Mitarbeitenden Unterer Naturschutzbehörden in Niedersachsen zur Verfahrenspraxis bei fledermauskritischen Gebäudesanierungen und Abrissen. Defizite bestehen demnach möglicherweise nicht nur in der Qualität fledermauskundlicher Erfassungen, sondern auch in einer gravierenden Kenntnislücke der zuständigen Behörden über Vorhaben, bei denen gebäudebewohnende Fledermäuse und ihre Quartiere beeinträchtigt werden. Das Feststellen von schwärmenden Zwergfledermäusen kann dazu dienen, noch während der Überwinterung eine Quartiersnutzung festzustellen. Winterschwärmkontrollen sollten daher in allgemeine Methodenempfehlungen Eingang finden, um bei Artenschutzprüfungen eine bessere Wissensgrundlage über die phänologische Quartiersfunktion und -nutzung zu ermöglichen.
Akustische Quartiersnachweise können sowohl über aktive Untersuchungen als auch unter bestimmten Voraussetzungen mithilfe passiver automatischer Ultraschallerfassungen erfolgen. Optische Hilfsmittel, vorzugsweise moderne Wärmebildkameras, sollten darüber hinaus unbedingt hinzugezogen werden. In der Stadt Osnabrück konnten in einer mehrtägigen Frostperiode Ende Dezember 2021 vier neue Winterquartiere der Zwergfledermaus bei Begehungen mit Detektor gefunden werden. Ein parallel durchgeführtes Dauermonitoring an einem großen Winterquartier über den Zeitraum 29.10.2021 bis 01.03.2022 offenbarte erhöhte Schwärmaktivität nicht nur bei Frost, sondern ebenfalls nach kräftigen Temperaturanstiegen mit Nachttemperaturen bis über 10°C. Die genauen Zusammenhänge zwischen allgemeiner Aktivität und Witterungsbedingungen sind komplex und benötigen weitergehender Untersuchungen. Auch auf Grundlage des derzeitigen Kenntnisstandes können großräumige Quartierssuchen in Form von winterlichen Schwärmkontrollen bereits jetzt dazu beitragen, essentielle Quartiere der Zwergfledermaus zu identifizieren. Den Unteren Naturschutzbehörden wird u.a. vorgeschlagen, ein Kataster über diese Quartiere in ihrem Zuständigkeitsbereich zu führen und beständig zu aktualisieren.
ZUKUNFTSBÄUME FÜR MÜNSTER – ERARBEITUNG EINES BAUMENTWICKLUNGSKONZEPTES MIT STANDORTSPEZIFISCHEN ARTENEMPFEHLUNGEN UNTER ZUKÜNFTIGEN KLIMABEDINGUNGEN UNTER BERÜCKSICHTIGUNG DES KLIMAHÜLLENKONZEPTES
Durch den voranschreitenden Klimawandel werden die ohnehin ungünstigen Standortbedingungen von Bäumen im urbanen Raum zunehmend schwieriger. Gleichzeitig steigt die Bedeutung von Stadtbäumen, denn im Rahmen der Klimaanpassung haben ihre Ökosystemleistungen einen besonders hohen Stellenwert. Viele der gängigen Arten leiden allerdings stark unter den bereits spürbaren Auswirkungen des Klimawandels – auch im klimatisch vergleichsweise milden Münster. In der vorliegenden Arbeit wird eine vereinfachte Typologisierung der urbanen Baumstandorte in Münster vorgenommen. Unter Berücksichtigung der stadtklimatischen Besonderheiten und spezifischen Einschränkungen wird das Klimahüllenkonzept von Kölling auf die jeweiligen Standorttypen übertragen und in Bezug zu den zukünftig erwarteten klimatischen Verhältnissen gesetzt. Hierbei zeigt sich, dass zum Ende des aktuellen Jahrhunderts nicht mehr viele der klassischen Arten als Stadtbäume in Münster geeignet sein werden. Daher werden standortbezogene Zukunftsbaum-Empfehlungen in Form eines vereinfachten Baumentwicklungskonzeptes erarbeitet. Die Standortgerechtigkeit und die Diversität des urbanen Baumbestandes werden im Hinblick auf die geänderten klimatischen Bedingungen in Zukunft enorm an Bedeutung gewinnen. Die Erweiterung und Optimierung des zukünftigen Stadtbaumsortiments ist insofern ein wichtiger Baustein zur Anpassung des urbanen Baumbestandes an den voranschreitenden Klimawandel.
Durch die Verbreitung von VR und den möglichen Potenzialen für die Landschaftsarchitektur, gewinnt die Auseinandersetzung mit der Verwendung als Präsentationsmedium an Relevanz. Aufgrund der geringen Anzahl an Fallstudien zu dieser Thematik, war es das Ziel dieser Arbeit, eine vollständige und praxisnahe VR-Erfahrung anhand eines Beispielprojekts zu erstellen. Hierfür wurde das Wohnbauprojekt „Teilerhöfe“ in Hannover ausgewählt.
Im Rahmen der Arbeit konnte ein Arbeitsablauf für die Erstellung einer VR-Erfahrung aufgestellt und erfolgreich durchgeführt werden. Das Ergebnis bildet eine auf der Unreal Engine basierende virtuelle Echtzeit-Umgebung, die durch ein VR-Headset erkundet werden kann. Trotz einiger notwendiger Kompromisse konnten alle Inhalte des Entwurfs angemessen dargestellt werden. Auf dieser Basis werden mögliche Potenziale und Grenzen für den Einsatz in der Landschaftsarchitektur diskutiert. Hieraus resultiert die Erkenntnis, das VREs einen erheblichen Mehrwert bieten können, aber mit Bedacht eingesetzt werden sollten.
Die Entwicklung von Virtual Realitiy-Technologien spielt im digitalen Zeitalter des 21. Jahrhundert eine immer bedeutendere Rolle und bietet Potential für zahlreiche Branchen. In der Branche des Garten- und Landschaftsbaus lässt sich dies beispielsweise durch die Einbettung von Baummodellen in interaktive Planungsprozesse ableiten, um Fehler und Missverständnisse im Planungsprozess zu vermeiden. Die vorliegende Arbeit beschäftigt sich in diesem Zuge mit den Möglichkeiten und Potentialen von generierten Echtzeit-Baummodellen auf der Grundlage von terrestrischem Laserscanning.
Aufgrund von fehlenden Erfahrungswerten und Messuntersuchungen wird durch diese Arbeit ein optimiertes Standardverfahren für die Baumaufnahme mittels terrestrischem Laserscanning aufgestellt. Dies geschieht auf der Basis von mehreren Baumaufnahmen und Programmuntersuchungen. Das Standardverfahren beinhaltet alle Bearbeitungsschritte von der Aufnahme bis zum Echtzeit-Visualisierungsmodell. In diesem Zuge werden zu erwartende Einschränkungen durch Windeinflüsse, Dateigrößen und verschiedene Vegetationsperioden genauer untersucht. Durch den Wind entstehende Messrauschfehler lassen sich mittels Filtervorgänge reduzieren, jedoch nicht ganzheitlich entfernen.
Sowohl das terrestrische Laserscanning als auch die 3D-Visualisierung bieten ein breit gefächertes Grundlagenspektrum, mit dem sich vor der Bearbeitung auseinander gesetzt werden muss. Weiterhin spielen Faktoren der menschlichen Wahrnehmung eine wichtige Rolle, um eine zielgerichtete Visualisierung umzusetzen.
Auf der Basis von Probeaufnahmen werden Scaneinstellungsparameter getestet, um Qualitätsmerkmale zu definieren. Weiterhin werden insgesamt 9 auf dem Markt vertretene Weiterverabeitungsprogramme detailliert untersucht und auf Funktionen getestet. In Abhängigkeit von der Baumgröße und Vegetationsperiode ergeben sich unterschiedlich anzuwendende Scaneinstellungen. Aufgrund der besten Ergebniserzielung und geringsten Gesamtzeitaufwendung wird Faro Scene als geeignetes Weiterverarbeitungsprogramm ausgewählt und in das Standardverfahren eingebettet. Da im Zuge einer Vermaschung keine zielführenden Ergebnisse erreicht werden, erfolgt die Darstellung der Baummodelle in Form einer Punktwolkenvisualisierung. Hierzu wird 3ds Max Design mit einem Vray Renderer als geeignetes Programm ausgewählt. Durch den Vergleich mit bestehenden 3D-Gehölzdatenbanken wird die Tauglichkeit der Punktwolkenvisualisierung bekräftigt.
Die aus den Probeaufnahmen gewonnenen Erkenntnisse werden für die Aufnahmen weiterer Baummodelle angewendet. Hierzu wird das entwickelte Standardverfahren mit einem Anwendungsbeispiel von 2 Bäumen gleicher Gattung und Art unterschiedlichen Alters durchgeführt.
Zurzeit wird die Digitalisierung in der Baubranche forciert. Im Hochbau ist dabei Building Information Modeling (BIM) als neue Planungsmethode im Vormarsch. In der Landschaftsarchitektur-Branche findet jedoch noch keine systematische Auseinandersetzung mit dieser Thematik statt.
Das Ziel ist daher, fundierte Informationen zu erarbeiten, die das Thema Building Information Modeling aus der Perspektive der deutschen Landschaftsarchitektur beleuchten und eine Basis für eine im Berufsfeld zu führende Diskussion legen. Aufbauend auf einer Bestandsaufnahme zu vorliegenden Entwicklungen, Definitionen, Standards und technologischen Grundlagen werden eine Online-Umfrage sowie Experteninterviews mit BIM-Anwendern und Softwareherstellern durchgeführt. Ein BIM-Test-Projekt dient der Prüfung, inwieweit für die Landschaftsarchitektur typische Planungsschritte mit branchentypischer Software BIMgerecht bearbeitet werden können.
Die hohe Rücklaufquote der Online-Umfrage, 266 Rückläufer bei 707 kontaktierten Landschaftsarchitekturbüros, bestätigt die Brisanz des Themas. Ca. 80 % der befragten Büros haben noch nie von der Methode gehört oder sich noch nicht damit auseinander gesetzt. Weniger als 4 % sind BIM-Anwender oder planen den Umstieg. Die Auswertung gibt Hinweise auf BIM-hemmende Faktoren, u. a. die vorherrschende 2D-Planung und kleinteilige Bürostruktur, sowie positive und negative Erwartungen der Landschaftsarchitekten an eine BIM-Umstellung.
Sowohl aus den Experteninterviews als auch aus der Bearbeitung des Testprojektes ergibt sich, dass erste Softwarelösungen BIM-Prozesse in der Außenanlagenplanung unterstützen. Jedoch fehlen landschaftsarchitektonische Bauteile sowie die Standards, diese in der verbreitet angewandten IFC-Schnittstelle adäquat zu definieren. Insbesondere in der Definition dieser IFC-Klassen und Objekte mit zugehörigen Genauigkeitsstufen in Geometrie und Informationsgehalt ('Levels of Detail' - LOD und 'Levels of Information' - LOI) wird dringender Forschungs- und Entwicklungsbedarf gesehen. Hilfreich wäre eine branchenspezifische BIMArbeitsgruppe. Die Auseinandersetzung mit BIM könnte zur Optimierung der Arbeitsprozesse, Softwarelösungen und Austauschformate beitragen. So wäre eine Angliederung an BIM-Prozesse auch in der Landschaftsarchitektur möglich.
In dieser Abschlussarbeit wird ein mehrstufiges Konzept zur Erfassung des baulichen Zustandes von Rückhalteeinrichtungen aus unbeschichtetem Beton entwickelt. Speziell betrachtet werden Anlagen zum Lagern, Abfüllen, Umschlagen, Herstellen, Behandeln und Verwenden von wassergefährdenden Stoffen.
Im Stand der Technik wird ein Überblick über die zusätzlichen Anforderungen aus Bauordnungs- und Wasserrecht zusammengestellt. Diese Anforderungen werden innerhalb des Konzeptes berücksichtigt. Im Unterschied zu herkömmlichen Betonbauteilen muss bei flüssigkeitsundurchlässigen Bauteilen neben der Tragfähigkeit, Gebrauchstauglichkeit und der Dauerhaftigkeit auch die Flüssigkeitsundurchlässigkeit berücksichtigt werden. Nach § 62, Absatz 1, WHG muss sichergestellt werden, dass eine nachteilige Veränderung der Eigenschaften der Gewässer nicht zu besorgen ist. Dieser Besorgnisgrundsatz wird durch Verordnungen, Richtlinien und Normen konkretisiert.
Der Grundgedanke des mehrstufigen Konzeptes ist die vorangehende Betrachtung des baulichen Gesamtzustandes und dessen Schnellerfassung. Auf Basis dieser Erfassung soll darüber entschieden werden, ob die Flüssigkeitsundurchlässigkeit aus technischer, wirtschaftlicher und kosmetischer Sicht durch Einzelinstandsetzungen oder durch das Aufbringen eines Ersatzsystems wiederhergestellt werden soll. Durch Instrumente, welche den einzelnen Stufen zugeordnet werden, soll die Erfassung standardisiert, systematisiert und vereinfacht werden.
Diese Abschlussarbeit beschäftigt sich mit dem Thema „Außenanlagen in der Immobilienbewertung“. Hiermit soll analysiert werden, inwieweit Außenanlagen einen Werteinfluss auf den Verkehrswert bebauter Grundstücke haben. Das Ziel dieser Studie ist herauszufinden, wie Außenanlagen bisher in der Immobilienbewertung berücksichtigt werden und wie ihr Potenzial als Werttreiber gemessen werden kann. Die Fragestellungen wurden auf Auswertungen geeigneter Fachliteratur aus den Bereichen der Immobilienbewertung sowie Garten- und Landschaftsbau untersucht.
Darüber hinaus haben Gespräche mit Professoren und Mitarbeitern der Hochschule Osnabrück sowie mit Fachspezialisten aus der Immobilienbranche als auch ein Experten-Interview für aufschlussreiche Diskussionen gesorgt.
Im Ergebnis wird deutlich, dass Außenanlagen durch Berührung gewisser wertbestimmender Parameter einen Einfluss auf den Marktwert von Immobilien ausüben. Wie die Studien zeigen, liegt dieser Wertanteil in einer Grauzone. Dies liegt vor allem an der unklaren Abgrenzung des Außenanlagenbegriffs in der Immobilienbewertung.
Um den unbekannten Werteinfluss zu ermitteln, wird mit dieser Arbeit eine Möglichkeit für eine Datenerhebung erarbeitet. Die Evaluation soll in Form einer Befragung von Immobiliensachverständigen durchgeführt werden. Zur vergleichbaren Beurteilung dient ein erarbeiteter Kriterienkatalog. Auf diese Weise soll das wertsteigernde Potenzial von Außenanlagen auf den Ertragswert einer Immobilie gemessen werden können. In der Vergangenheit erstellte Ertragswertgutachten, die zu Verkaufstransaktionen geführt haben, sollen auf dieser Grundlage ausgewertet und verglichen werden.
Das Endergebnis zeigt, wie mit dieser empirischen Datenerhebung ein Fazit bezüglich des tatsächlichen Wertanteils durch Außenanlagen am Immobilienwert bestimmt werden kann.
Diplomarbeit in Gartendenkmalpflege
Die Arbeit besteht aus einem Textteil mit historischer Recherche und einem Planteil mit 4 Plänen:
Bestandsplan
Historischer Lageplan
Maßnahmenplan und
Historischer Entwicklungsplan
Die Diplomarbeit stellt eine Pionierarbeit dar, da erstmals der Park des Herrensitzes des Ehepaares Zanders (Richard Zanders und Anna Zanders, geb. Siemens) untersucht wurde. Die Diplomarbeit stellt den kulturhistorischen Wert einer Park- und Gartenanlage aus dem frühen 19. Jhd. heraus.
Der Wassergehalt beeinflusst die technologischen, mikrobiologischen und sensorischen Eigenschaften von Lebensmitteln. Für die Bestimmung des Wassergehalts in Lebensmitteln stehen verschiede Verfahren zur Verfügung, welche allerdings auch aufwendig und zeitintensiv sein können. Die Wassergehaltbestimmung mittels Mikrowellenresonanz zeichnet sich durch eine sehr kurze Messzeit, zerstörungsfreie Messung und hohe Eindringtiefe in die zu messende Substanz aus.
Ziel dieser Arbeit war es, unter Einsatz von pulverförmigen Lebensmittel die Genauigkeit der Wassergehaltsbestimmung mittels der Mikrowellenresonanz zu ermitteln und messbestimmende Einflussgrößen zu identifizieren. Mit den Untersuchungen sollte die mögliche Einsetzbarkeit des Verfahrens in der Praxis überprüft werden.
Die notwendigen Referenzmaterialien mit unterschiedlichen Feuchten wurden mit Hilfe einer feuchten Atmosphäre im Klimaschrank befeuchtet oder mit einer kontrollierten Trocknung im Trockenschrank hergestellt. Diese wurden genutzt um produktspezifische Kalibrierungen zu erstellen. Als Referenzverfahren wurde das Trockenschrankverfahren verwendet.
Als mögliche Einflussgrößen wurden die Probentemperaturen, Schüttdichten, Füllhöhen, sowie das Referenzverfahren anhand der Weizenstärke, des Magermilchpulvers und Hühnereiweißpulvers untersucht. Folgende Ergebnisse wurden ermittelt:
Die Probentemperatur hat einen Einfluss auf die ausgegebenen Messwerte der untersuchten Lebensmittel. Mit zunehmender Temperatur steigen die ausgegebenen Messwerte. Der Temperatureinfluss wird mit zunehmenden Wassergehalt größer und ist zwischen den Substanzen spezifisch
Bei dem Magermilchpulver konnte bei zunehmender Verdichtung kein nennenswerter Dichteeinfluss festgestellt werden. Dagegen zeigten sich ein Dichteeinfluss bei der Weizenstärke und dem Hühnereiweißpulver ab einer 10-fachen-Aufklopfung des Materials mit maximalen absoluten Veränderungen zwischen 0,16 % (m/m) bis 0,18 % (m/m). Der Grad des Dichteeinflusses kann durch den Verdichtungstest der Messgerät-Software beeinflusst werden.
Bei einer Abnahme der Füllhöhe von 100 % auf bis zu 40 % zeigten sich keine ausgeprägten Veränderungen in den Messwerten. Ab einer Proben-Füllhöhe von 20 % wurde ein starker Einfluss der Probenhöhe festgestellt. Es traten bei allen Lebensmitteln Veränderungen der Messwerte von bis zu 1,81 % (m/m) auf
Mit der Thermowaage und dem Wärmestrom-Kalorimeter wurden Temperaturen bestimmt, welche das Ende der Wasserverdampfung markieren. Die Trocknung an der Grenze zu diesen Temperaturen ergab tendenziell höhere Massenverluste als im Trockenschrankverfahren. Die Ergebnisse weisen darauf hin, dass durch die Verwendung der Trockenschrankverfahren-Vorgaben nicht das gesamte Wasser detektiert wird.
Die Untersuchungen zur Genauigkeit des Mikrowellenresonanzverfahrens wurden am Beispiel der Weizenstärke mit der zugrunde liegenden Kalibrierung mit einer Korrelation von r = 0,998 und einer Reststandardabweichung von 0,235 % (m/m) durchgeführt. Der Arbeitsbereich lag zwischen 2,03 % (m/m) bis 14,77 % (m/m). Die Messwerte wurden unter Wiederholbedingungen gewonnen.
Die Variationskoeffizienten der Messpräzision und Methodenpräzision befanden sich über den gesamten untersuchten Wassergehalt-Bereich innerhalb der zulässigen Grenzen. In der Messpräzision wurde eine maximale Wiederholstandardabweichung von 0,060 % (m/m) beobachtet. Bei der Untersuchung der Methodenpräzion wurde eine maximale Wiederholstandardabweichung von 0,232 % (m/m) festgestellt. Das Mikrowellenresonanzverfahren kann sehr präzise Messwerte liefern
Die statistische Auswertung der Richtigkeit wurde mit dem Sollwert-t-Test durchgeführt. Über einen Feuchtebereich von 2,03 % (m/m) bis 14,77 % (m/m) wiesen, bei einer Wahrscheinlichkeit von 95 %, von den 8 der untersuchten Proben 7 einen signifikanten Unterschied zu den mittels Trockenschrank ermittelten Messwerten auf. Die größte festgestellte systematische Abweichung von 1,00 % (m/m) lag bei einer Referenzfeuchte von 2,03 % (m/m). Im Feuchte-Bereich von 4,81 % (m/m) bis 14,77 % lag die größte festgestellte systematische Messabweichung bei 0,51 % (m/m) vom Referenzwert
In der vorliegenden Arbeit wird die Anwendung eines Schlitzplatten-Mikromischers zur Produktion von O/W-Emulsionen in der Lebensmittelindustrie untersucht. Das verwendete System besteht aus dem Modularen MikroReaktions System (MMRS) der Firma Ehrfeld BTS, einer Mahr Mikrozahnradpumpe, einer HNPM Mikrozahnringpumpe, einer Temperiervorrichtung und Kapillaren zur Verbindung der einzelnen Komponenten. Zur Beurteilung des Emulgierergebnisses wird die Tropfengröße der Öltröpfchen mithilfe eines Malvern Mastersizers 2000 bestimmt. Hierzu erfolgt zunächst eine Identifikation der relevanten Prozessparameter. Mithilfe einer ausführlichen Evaluation der Mischgeometrie, der Geschwindigkeit der Fluide und der Ölkonzentration können die Effekte und Wechselwirkungen herausgearbeitet werden. Alle hergestellten Emulsionen weisen eine bimodale Tropfengrößenverteilung auf. Dennoch kann festgestellt werden, dass die Geschwindigkeit, dicht gefolgt von der Konzentration, den größten Einfluss auf das Emulgierergebnis hat. Hierbei kann die Geschwindigkeit analog zum Energieeintrag betrachtet werden. Eine weiterführende Untersuchung der Parameter Temperatur und Energieeintrag zeigt, dass die Temperatur einen starken Einfluss auf das Emulgierergebnis hat. Die Versuchsergebnisse zeigen bei einer Prozesstemperatur von 75 °C eine monomodale Tropfengrößenverteilung mit einem Tropfendurchmesser von d90,3= 6,07 µm und d3,2= 2,28 µm. Die Untersuchung der Energieeinträge erfolgt in beiden Phasen getrennt voneinander. Es ist nicht möglich, eine klare Aussage über diese Einflüsse zu machen. Als Anwendungsbeispiel für die Lebensmittelindustrie wird die Evaluation unterschiedlicher lebensmitteltauglicher Emulgatoren gewählt. Als Emulgatoren dienen enzymatisch modifiziertes Sojalecithin, Milchphospholipide auf einem Träger, Polysorbat 80 und SDS. Die Untersuchung erfolgt bei drei unterschiedlichen Temperaturen und einem konstanten Energieeintrag. Es ergibt sich eine klare Abhängigkeit der Emulgatorwirkung von der Temperatur. Alle lebensmitteltauglichen Emulgatoren weisen im Temperaturbereich von 25 °C bis 65 °C eine bimodale Tropfengrößenverteilung auf. Der Vergleich der Versuchsergebnisse mit herkömmlichen Emulgierverfahren macht deutlich, dass ein großes Potential in der Anwendung eines Schlitzplatten-Mikromischers in der Lebensmittelindustrie liegt. Im Vergleich zur Literatur ergeben sich bei der Anwendung des MMRS bei gleichen Energieeinträgen ähnlich Tropfengrößen wie bei Membranemulgierverfahren.