Open Access
Refine
Year of publication
Document Type
- Article (156)
- Bachelor Thesis (146)
- Conference Proceeding (104)
- Report (31)
- Master's Thesis (22)
- Doctoral Thesis (11)
- Other (3)
- Patent (1)
Keywords
- Augenoptik (12)
- virtual reality (9)
- Abschlussarbeit (7)
- Augenoptiker (7)
- Studie (6)
- Hörgerät (5)
- Bachelorarbeit A/H (4)
- Business Process Management Systems (4)
- Fuzzy Logic (4)
- Kontaktlinse (4)
Institute
- Optik und Mechatronik (131)
- Wirtschaftswissenschaften (122)
- Maschinenbau und Werkstofftechnik (81)
- Augenoptik und Hörakustik (43)
- Elektronik und Informatik (42)
- Internationale Betriebswirtschaft (18)
- Chemie (12)
- Maschinenbau/Fertigungstechnik (2)
- Informatik (1)
- Mechatronik (1)
Forming complex parts out of high and ultra-high strength aluminium alloys has proved to be more challenging in comparison to the currently used deep drawing steels. Nevertheless, aluminium alloys show a limited formability in contrast with, for example, deep drawing steels. Novel processes like Warm-forming, W-Temper or Hotforming, offer the potential to produce light and highly integrated one-piece components from such aluminium alloys at elevated temperatures. When considering aluminium alloys of the 7000 group, which can reach strength values (UTS) of about 600 MPa, crash components such as side impact bars would offer a suitable field of application.
Forming at elevated temperatures, in particular with the Hotforming process, offers high potential in the production of complex structural components on the one hand and in the use of existing press hardening equipment on the other. To date, the material behaviour of aluminium alloys in the 7000 group, applied in such processes and in the later final state after forming, is not sufficiently known.
Therefore, in this study, systematic investigations on the formability and the final strength during and after forming at elevated temperature of the EN AW-7075 aluminium wrought alloy from different suppliers are conducted. In general, material- and damage/ failure models were created and implemented into simulation in order to make predictions. Characterisation of the plastic material properties on the basis of various tensile specimens as shear-, notched-, tensile- and Erichsen tests are carried out to adapt the complex material- and failure models such as Barlat YLD2000 and GISSMO to the experimental values using a parameter optimisation. These were made for the material conditions during forming, i.e. after solution heat treatment, the final condition after artificial ageing at 180°C for 20 minutes, which corresponds to the cathodic dip coating, and the T6 condition, which is the highest strength condition.
To evaluate a suitable friction coefficient for high temperature forming processes, anti-friction agents are screened, and the potential applicability evaluated by strip-drawing tests. Thereby, using an analytical relationship, friction coefficients are determined at room temperature and 180°C, which are used as corresponding friction model for the finite element forming simulation.
Crash simulations using the nonlinear finite element method (FEM) of side impact protection beams are used to demonstrate the weight saving potential of high and ultra-high strength aluminium alloys compared to a beam made of press hardened steel. A weight saving of about 20 % could be achieved with the same crash performance. This can be significantly increased to around 30 % - 40 % by using local reinforcements such as CFRP or GFRP (carbon/ glass fibre reinforced plastic) patch. For this reason, a novel process was developed which is based on the conventional Hotforming process with an integrated thermal direct joining step called “Extended Hotforming”.
Subsequently, a heatable forming tool for the production of a serial like sheet metal side impact beam was developed to validate the finite element simulation and to demonstrate the potential of the forming processes at elevated temperatures for aluminium sheet metal components.
Einer der bedeutendsten Streitpunkte bei geplanten M&A-Transaktionen ist der Wert des Zielunternehmens und damit auch die Ermittlung angemessene Kaufpreis. Hier gehen die Vorstellungen der beiden Vertragsparteien oftmals auseinander. Während der Verkäufer einen möglichst hohen Veräußerungsgewinn erzielen möchte, geht es für den Erwerber in erster Linie darum einen fairen, den Unternehmensverhältnissen entsprechenden, Kaufpreis zu bezahlen.
In der Praxis stehen den Parteien hierfür verschiedene Mechanismen zur Verfügung. Neben der Vereinbarung eines festen Kaufpreises bereits vor dem Closing, kann der endgültige Kaufpreis auch mittels bilanzorientierten oder erfolgsabhängigen Kaufpreisklauseln variabel bis oder gar über den Zeitpunkt des Vollzugs hinaus gestaltet werden. Der Zahlungsverpflichtung wird somit erst nach dem Übergang des wirtschaftlichen Eigentums fällig, was wiederum zu einer nachträglichen Änderung des Kaufpreises führt. Dementsprechend hat dies für sowohl den Veräußerer als auch den Erwerber steuerliche Konsequenzen.
Das Ziel der vorliegenden Arbeit ist die genauere Untersuchung der ertragssteuerlichen Auswirkungen relevanter Kaufpreisanpassungsklauseln bei M&A-Transaktionen durch Auswertung der Literatur, der Verlautbarungen seitens des Gesetzgebers sowie der ergangenen Rechtsprechung. Dabei soll vor allem auf die steuerlichen Konsequenzen einer nachträglichen Kaufpreisänderung aufgrund Earn-Out-Klauseln eingegangen werden.
Lösungsansätze
(2021)
The present study deals with the topic how a town can use its cultural heritage or,
more precisely, its industrial culture as a means to market itself as an innovative
business location and to foster a more pronounced sense of civic cohesion among
residents. Economic theory suggests that, nowadays, traditional location factors
such as access to resources and a performant infrastructure are less important than
in the industrial age. Recently, factors like a city’s potential to generate and retain
human and creative capital have emerged. Accordingly, the economic and social
role of cities has shifted – from a place where workers lived and manufactured
goods towards a deeply interwoven ecosystem of knowledge-intense value creation.
The question at the root of the present study is how Heidenheim’s rich industrial
cultural heritage can be used as a future-pointing source of power for rebranding
the town. This rebranding concept has to be developed according to the town’s role
in past, present and future, thus creating actual economic and societal value.
Industrial culture bears branding potential and is closely related to various aspects
of modern life and work. The study examines possibilities to create awareness for
these relations connecting past, present and future. Their relevance shall be
emphasized in order to establish both points of orientation and authenticity of place
in times when macroeconomic and societal trends are difficult to predict. Ideally,
residents shall be given a sort of local identification to hold on to, and potential
investors and entrepreneurs shall be encouraged to sustainably experience the
innovation-based DNA of Heidenheim. Therefore, the study searches for a value
proposition that takes into account the points mentioned above on terms of an
innovative theoretic framework. As a result of this thesis, precise suggestions for
the implementation of a new branding strategy based on the conceptual guidelines
developed in this study will be proposed to the municipality of Heidenheim and, in
addition, an interface using principles of virtual and augmented reality will be
introduced.
Direct digital manufacturing – the role of cost accounting for online hubs to access industry 4.0
(2021)
Direct Digital Manufacturing - The Role of Cost Accounting for Online Hubs to Access Industry 4.0
(2021)
Biometrie des Auges
(2020)
Das Ziel dieser Studie besteht darin, 200 Probanden an den Zeiss-Geräten i.Profiler und IOL Maser 500 zu vermessen, um ein individuelles Augenmodel überprüfen zu können.
Zusätzlich wird untersucht wie das Sphärische Äquivalent (SÄ) der Probanden, mit der jeweiligen Augenlänge und der Vorderkammertiefe korreliert. Die Messungen der zufällig ausgewählten Probanden erfolgten immer am rechten Auge zwischen 9:00 und 15:00 Uhr.
Purpose
Automated scanpath comparison metrics should deliver an objective method to
evaluate the similarity of scanpaths. The aim of this thesis is an evaluation of
seven existing scanpath comparison metrics in static and dynamic tasks in order
to provide a guidline that helps to decide which algorithm has to be chosen for a
special kind of task.
Methods
The applicability of the algorithms for a static, visual search task and a dynamic,
interactive video game task as well as their constraints and limitations were tested.
Therefore, binocular gaze data were recorded by using the eye tracking system The
Eye Tribe (The Eye Tribe ApS, Copenhagen/ Denmark). Objective task performance
measures from 21 subjects were used in order to create scanpath groupings
for which a relevant effect of dissimilarity was to be expected. Objective task performance
measures such as task performance time were statistically evaluated and
compared to the results gained by the comparison metrics.
Results
Four of the algorithms being used successfully identified differences for static and
dynamic tasks: MultiMatch, iComp, SubsMatch and the Hidden Markov Model.
ScanMatch was very sensitive for the static task but not applicable to the dynamic
task whereas FuncSim was suitable for dynamic but not for static tasks. Eyenalysis
failed to detect any effect.
Conclusion
The applicability of scanpath comparison metrics depends on the state of the task,
respectively on the kind of experimental set up. In future, the application area for
eye tracking will expand and an improvement of automated scanpath comparison
metrics is therefore required.
Ziel der Bachelor Thesis ist die Analyse der Werbewirksamkeit der Werbekampagne des ZVA “1xO” – gemessen an der Bekanntheit der Kampagne. Dabei geht es im Wesentlichen um die regelmäßige, jährliche und kompetente Überprüfung der Sehleistung durch die Augenoptiker. Hintergrund der Veröffentlichung der Kampagne ist der schleichende Prozess der Sehleistungsveränderung. Viele Menschen nehmen unbewusst nicht wahr, dass ihr Sehvermögen mangelhaft ist und wie sie optimaler mithilfe einer Korrektion sehen könnten. Basierend auf wissenschaftlichen Studien und einer repräsentativen Kundenbefragung beschäftigt sich diese wissenschaftliche Arbeit unter anderem mit einer Bestandsaufnahme über die Veränderung der Sehfähigkeit von Brillen--‐und Kontaktlinsenträgern sowie Nicht--‐ Brillen--‐oder Kontaktlinsenträgern. Des Weiteren gibt sie Aufschluss über die derzeitige Teilnahme an regelmäßigen Untersuchungen durch den Augenarzt oder den Augenoptiker. Sie zeigt im Weiteren wie häufig und regelmäßig, aus Sicht und Meinung der Deutschen, eine Sehprüfung von einer professionellen Person ausgeführt werden sollte. Interessant zu sehen ist ebenfalls, wie die Menschen ihre derzeitige Sehleistung selbst einschätzen, um zu zeigen wieviele verbreitete Zweifel über das Sehvermögen entstehen und die Kernaussage der Kampagne zu unterstützen. Um klären zu können, welche Veränderungen, Maßnahmen oder Verbesserungen seitens der Augenoptiker getroffen werden müssen um eine ganzheitliche Kundenbindung zu erlangen, spielen Kundenzufriedenheitsbefragungen eine ebenso entscheidende Rolle für die Heranführung der Deutschen an regelmäßigere Sehtests. Dabei ist ebenso wichtig feststellen zu können, ob die Augenoptiker einen Wettbewerbskampf mit Onlineanbietern eingehen müssen oder die Kundentreue gegenüber den Augenoptikern stark genug ist. Die Kundentreue und Kundenzufriedenheit ist der Grundbaustein für eine optimale Aufklärung über regelmäßige Kontrollen der Sehleistung seitens der Augenoptiker.
Diese Bachelorthesis beschreibt Gründungs- und Unternehmensführungsstrategie anhand einer handlungsorientierten und konstruktivistischen Lernstrategie VaKE (Value and Knowledge Education) zum Erlangen der beruflichen Handlungsfähigkeit. Dabei teilt sich die Arbeit in drei Hauptteile wie folgt auf: Im ersten Teil wird beschrieben welche Kompetenzen und Eigenschaften zusammen die berufliche Handlungsfähigkeit ergeben, und wie diese erworben werden kann. Weiterhin wird der geschichtliche Hintergrund von Qualifikationen und Handlungskompetenzen dargestellt. Im zweiten Teil dieser Bachelorthesis wird die Theorie zu den Gründungs- und Unternehmensführungsstrategien im Rahmen der allgemeinen Meisterprüfungsordnung (AMVO) herausgearbeitet und beschrieben. Dabei werden nach der AMVO im zweiten Handlungsfeld die Gründungs- und Übernahmeaktivitäten sowie das dritte Handlungsfeld der Unternehmensführungsstrategien genauer beschrieben. Das zweite Handlungsfeld gliedert sich in die Bedeutung der persönli-chen Voraussetzungen für den Erfolg der beruflichen Selbstständigkeit, die wirtschaftliche, gesellschaftliche und kulturelle Bedeutung des Augenoptiker Handwerks, der Nutzen von Handwerksorganisationen sowie Entscheidungen zum richtigen Standort eines Augenoptischen Betriebes. Das dritte Handlungsfeld beschreibt die Bestimmungen des Arbeits-und Sozialversicherungsrechts, Instrumen-te zur Durchsetzung von Forderungen sowie theoretischen Grundlagen zur Insolvenz und deren mögliche Konsequenzen. Der dritte Teil dieser Bachelorthesis setzt sich aus handlungsorientierten Aufgaben zu den Gründungs- und Unternehmensführungsstrategien zusammen, welche im zweiten Teil genau beschrieben wurden. Diese Aufgaben werden anhand der konstruktivistischen Lernstrategie VaKE durchgeführt.
In dieser Studie geht das Institut für Unternehmensführung (AAUF) der Hochschule
Aalen der Frage nach, wie sich die Digitalisierung auf die Arbeit von Steuerberaterkanzleien auswirkt. Die vorliegende Schrift stellt die wesentlichen
Erkenntnisse vor.
Die Charakteristika der an der Befragung teilnehmenden Steuerberatungen spiegeln hinsichtlich Unternehmensgröße und Art der Tätigkeiten die Merkmale der angepeilten Gesamtheit an Unternehmen wider, so dass man davon ausgehen kann, dass die
Ergebnisse repräsentativ sind.
In Summe zeigt sich, dass Digitalisierung natürlich auch in dieser Branche eine Rolle spielt, jedoch weniger bei der Mandantenakquisition als bei internen Prozessen. Es scheint so, dass potentielle Mandanten aufgrund der mit solchen Dienstleistungen
verbundenen Unsicherheit eher auf persönliche Kontakte und Weiterempfehlungen vertrauen. Steuerberaterkanzleien nutzen daher kaum digitale Akquisitionswege. Weiterhin zeigt sich in verschiedenen Ergebnissen eine digitale Kluft: eine signifikante
Gruppe der befragten Kanzleien nutzt die Digitalisierung stark und eine oft ebenso
große Gruppe nutzt die Digitalisierung nur wenig.
Planung ist eines der wichtigsten Führungsinstrumente in der Praxis. Sie dient der
Umsetzung von Zielen und beinhaltet die gedankliche Vorwegnahme künftiger
Maßnahmen und benötigter Ressourcen. Allerdings bemängelt die Praxis häufig ihren
Aufwand. Daher tendieren manche Unternehmen dazu, weniger auf formale Prozesse
und Instrumente zu setzen und steuern eher über intuitive Entscheidungen oder ad
hoc-Abstimmungen. Solche Vorgehensweisen lassen sich als heuristisch bezeichnen.
Offen ist, ob eine eher formale oder eine eher heuristische Planung zu demselben
Erfolg führt.
In einer Studie geht das Institut für Unternehmensführung (AAUF) der Hochschule
Aalen der Frage nach, ob Unternehmen eher formal oder heuristisch planen und
welche Auswirkungen dies auf den Unternehmenserfolg hat. Die vorliegende Schrift
stellt die wesentlichen Erkenntnisse vor.
On the road again: Wie kann die Arbeitsgestaltung zur Arbeitsfreude bei mobiler Arbeit beitragen?
(2020)
Development and trial of a blended learning concept for students in engineering study courses
(2018)
Diese Masterarbeit beschäftigt sich mit "Race Conditions", auf Deutsch "Wettlaufsituationen", in Webanwendungen. Bei dieser Art von Schwachstelle lassen sich durch einen Angreifer unvorhergesehene Zustände, in Folge von überschneidenden und parallelen Programmcodesequenzen, kreieren. Durch geschicktes Ausnutzen dieser Zustände können sich damit Vorteile verschafft werden, wie das Umgehen von Anti-Brute-Force-Mechanismen, das Überziehen von Limits, die Mehrabgabe von Stimmen und weiteren Angriffsszenarien. Im Rahmen der Arbeit wird ein Penetration Testing Tool für Race Conditions und eine Trainings-Webanwendung entwickelt, die für diese Art von Angriffen verwundbar ist. Anhand des entwickelten Penetration Testing Tools und der entwickelten Webanwendung werden Angriffsszenarien aus der Praxis demonstriert.
Die vorliegende Arbeit beschäftigt sich bezogen auf die Hörgeräteverifikation mit zwei Untersuchungsfragen. Ziel des ersten Versuches war die Ermittlung der Unterschiede zwischen den Zielkennlinien verschiedener Messsysteme. Dazu wurden die maximalen Differenzen der Zielwerte von drei simulierten Kundenfällen sowohl für die Präskription NAL-NL2 als auch für DSL v5.0 ermittelt. Darauf aufbauend wurde im zweiten Versuchsteil untersucht, ob sich die nach NAL-NL2 und DSL v5.0 softwaregenerierten, gemessenen Ausgangspegel der Hörgerätehersteller Phonak sowie Siemens und die gemittelten Zielwerte aus Versuch 1 unterscheiden. Hierbei wurden die gleichen simulierten Kunden wie in Versuch 1 gewählt und die Messung des Ausgangspegels am 2 cm³-Kuppler durchgeführt.
Es konnte festgestellt werden, dass sich die Zielkennlinien zwischen den Messsystemen für die Präskription NAL-NL2 im hohen Frequenzbereich und für DSL v5.0 im tiefen Frequenzbereich teilweise ummehr als 10 dB unterscheiden.
Die zweite Untersuchungsdurchführung hat gezeigt, dass die voringestellten Präskriptionen der Hörgerätehersteller (NAL-NL2 und DSL v5.0)und die vorberechneten Zielwerte teilweise stark differieren. Die größten Abweichungen sind für beide Präskriptionen und beide Hörgerätehersteller im hohen Frequenzbereich vorhanden. Wobei die Abweichungen für die Hörgeräte von Phonak im Durchschnitt < 10 dB und bei dem Hersteller Siemens > 10 dB sind.
Anhand dieser Ergebnisse können zwei Schlussfolgerungen festgehalten werden. Zum einen sollte dem Anpasser bewusst sein, dass die Vielzahl der wählbaren Präskriptionseinstellungen sowie die Komplexität der Messtechniken zu unterschiedlichen Zielkennlinien zwischen den Messsystemen führen kann. Daher ist es besonders wichtig, sich bei der Anpassung mittels Zielkennlinien mit der vorhandenen Messtechnik und den implementierten Präskriptionen auszukennen. Darüber hinaus sollte in Betracht gezogen werden die Hörgeräteanpassung mit
einer alternativen Anpassstrategie durchzuführen. Zum anderen wird deutlich, dass die Präskriptionen der Hörgerätehersteller nicht den Zielkennlinien entsprechen.
Um zu wissen, welche tatsächlichen Ausgangspegel am Trommelfell erzeugt werden, muss die Verifikation in Form der Kuppler- oder Sondenmikrofonmessung durchgeführt werden.
Ziel der vorliegenden Arbeit ist es Studierenden des Studiengangs Augenoptik/Augenoptik und Hörakustik der Hochschule Aalen aufzuzeigen, welche Chancen das Studiensemester „Internationale Optometrie“ sowie die Anfertigung der Abschlussarbeit im Ausland oder ein Praxissemester im Ausland bergen und in wieweit ein solches Semester von Vorteil ist. Die Arbeit ist ein Leitfaden und soll als Entscheidungs- bzw. Orientierungshilfe fungieren. Es zeigt im Hinblick auf voraussichtliche Neuerungen, welche die Zukunft verspricht, den Studierenden auf, welche Relevanz internationale Optometrie hat und in welchem Wandel sich der augenoptische Markt zurzeit befindet. Studierende sollen motiviert und begeistert werden, sich ein Auslandssemester zuzutrauen. Um dies zu erreichen werden allgemeine Informationen zur Zukunft der Optometrie in Deutschland und Europa gegeben, sowie spezifische Informationen zu den unterschiedlichen Ländern.
Ziel der Arbeit:
Die Verwendung von Kompression in Hörsystemen ist heutzutage essenzieller Bestandteil jeder
Hörsystemanpassung. In vielen Forschungsprojekten wurde bis heute Hauptsächlich das
Augenmerk auf die Hochtonkompression gelegt, dabei gibt es nur wenige Studien die sich mit
der Tieftonkompression beschäftigen. In dieser Studie wurde gezielt mit der Kompression im
niederfrequenten Bereich von 160 - 800 Hz gearbeitet mit der Besonderheit, dass zusätzlich
Grenzfrequenzen im Bereich von 160 - 480 Hz und 640 - 800 Hz gesetzt wurden. Das Augenmerk
wurde dabei auf die Frage gelegt, ob definierte Grenzfrequenzen die zu Frequenzbändern
zusammengefasst werden das Sprachverstehen beeinflussen können?
Material und Methode:
An dieser Studie nahmen sieben Schülerinnen und Schüler teil. Die Schülerinnen und Schüler
nahmen freiwillig an der Studie Teil und durften die Teilnahme jederzeit beenden. Die
Teilnehmerinnen und Teilnehmer bekamen Testgeräte die in zwei verschiedenen Einstellungen
im Tieftonbereich mit einem CV von 2,5:1 eingestellt wurden. Dabei war Einstellung 1 mit
den Grenzfrequenzen 160 - 480 Hz und Einstellung 2 mit den Grenzfrequenzen 640 - 800 Hz
eingestellt. Jede Einstellung wurde jeweils eine Woche testgetragen und dann gemeinsam ausgewertet.
Ergebnisse:
Das bessere Sprachverstehen (Validierung durch den OlKiSa) wurde mit Einstellung 1 erreicht,
auch bei der allgemeinen Bewertung des Hörsystems in Alltagssituationen wurde Einstellung 1
besser bewertet als Einstellung 2.
Schlussfolgerung:
Vorausgehende Studien konnten belegen, dass die Tieftonkompression für hochgradig schwerhörige
im Tieftonbereich einen positiven Einfluss auf das Sprachverstehen haben. Des weiteren
konnte mit der vorliegenden Studie eine Tendenz nachgewiesen werden, dass Grenzfrequenzen
im Tieftonbereich ebenso positive Effekte erzielen können. Die Ergebnisse zeigen die Tendenz
zu den tieferen Frequenzen 160 - 480 Hz der Einstellung 1. Die Allgemeine Zufriedenheit und
der Tragekomfort der Hörsystemene für Einstellung 1 war ausschlaggebender als die Ergebnisse
für Einstellung 2.
Identification and quantitative segmentation of individual blood vessels in mice visualized with preclinical imaging techniques is a tedious, manual or semiautomated task that can require weeks of reviewing hundreds of levels of individual data sets. Preclinical imaging, such as micro-magnetic resonance imaging (μMRI) can produce tomographic datasets of murine vasculature across length scales and organs, which is of outmost importance to study tumor progression, angiogenesis, or vascular risk factors for diseases such as Alzheimer’s. Training a neural network capable of accurate segmentation results requires a sufficiently large amount of labelled data, which takes a long time to compile. Recently, several reasonably automated approaches have emerged in the preclinical context but still require significant manual input and are less accurate than the deep learning approach presented in this paper—quantified by the Dice score. In this work, the implementation of a shallow, three-dimensional U-Net architecture for the segmentation of vessels in murine brains is presented, which is (1) open-source, (2) can be achieved with a small dataset (in this work only 8 μMRI imaging stacks of mouse brains were available), and (3) requires only a small subset of labelled training data. The presented model is evaluated together with two post-processing methodologies using a cross-validation, which results in an average Dice score of 61.34% in its best setup. The results show, that the methodology is able to detect blood vessels faster and more reliably compared to state-of-the-art vesselness filters with an average Dice score of 43.88% for the used dataset.
Materialien für individuelle Kontaktlinsen sind sehr vielfältig in Hinsicht auf ihre
Materialeigenschaften und Beschaffenheit. Einen Überblick über die
Eigenschaften bieten bereits diverse Sammelwerke in Buchform.
Das im Rahmen dieser Bachelorthesis „Erstellung eines Webportals zum
Vergleich von individuellen Kontaktlinsenmaterialien“ entstandene Webportal
www.lensmaterial.info
soll dem Benutzer eine übersichtliche Darstellung der verfügbaren Materialien
für individuelle Kontaktlinsen bieten. Darüber hinaus bietet das Webportal eine
Filterfunktion, um das optimale Kontaktlinsenmaterial bezüglich verschiedener
Voraussetzungen zu suchen. Die Datenbank umfasst neben den formstabilen
und weichen Materialien auch Listen von Material- und Kontaktlinsenherstellern.
Das Webportal soll nach Abgabe dieser Bachelorthesis weiter geführt und
ausgebaut werden.
Das Ziel dieser Bachelorarbeit ist es, die Auswirkungen, welche Lösungsmittel auf die Brillenfassungen aus Kunststoff haben können, untereinander zu vergleichen.
Im ersten Teil der Arbeit werden Grundlagen zu verschiedenen Brillenkunst-stoffen und Lösungsmitteln aufgeführt. Außerdem werden Prüftechniken der allgemeinen Kunststofftechnik beschrieben, die die Beständigkeit eines Kunststoffmaterials auf ein chemisches Medium untersuchen.
Im zweiten Teil dieser Bachelorthesis wird ein Versuch durchgeführt, der die Auswirkungen der Lösungsmittel Aceton, Ethanol, Isopropanol und Benzin auf verschiedene Kunststofffassungen aus Zelluloseacetat und Polyamid vergleicht. Dafür müssen im Vorfeld die zu untersuchenden Kunststofffassungen ausgewählt und die Lösungsmittel festgelegt werden. Bei der Versuchsdurchführung wird Wert auf ein praxisnahes Auftragen der Lösungsmittelmenge gelegt.
Die Ergebnisse der Untersuchung zeigen vor allem, dass nicht alle verwendeten Lösungsmittel schädliche Veränderungen an den Materialoberflächen auslösen.
Die Lösungsmittel Benzin, Ethanol und Isopropanol sind als Reinigungsmittel bekannt.
Sie zeigen bei diesem Kurzzeitversuch überwiegend positive Veränderungen bezüglich der Materialoberfläche. Während Benzin größtenteils keine Veränderungen zeigt, weisen Ethanol und Isopropanol polierende Effekte auf. Jedoch zeigt Ethanol in diesem Versuch an den Polyamidfassungen auch oberflächenmattierende Auswirkungen. Daher gilt als Ergebnis festzuhalten, dass das Reinigungsmittel mit der schonensten und mit einer polierenden Wirkung Isopropanol ist und in dieser Hinsicht Ethanol auch ersetzen könnte.
Neben den Auswirkungen der Lösungsmittel, soll die Notwendigkeit einer guten Materialkunde des Augenoptikers verdeutlicht werden.
Der demografische Wandel stellt die deutsche Arbeitswelt vor neue Herausforderungen.
Denn die schrumpfende Bevölkerungszahl wird zu einer Lücke in
der Erwerbsbevölkerung führen, weshalb neues Arbeitskräftepotenzial reaktiviert
werden sollte. Die vorliegende Bachelorthesis beschäftigt sich daher mit den
Möglichkeiten einer Wiedereingliederung von Ruheständlern in das Erwerbsleben.
Ziel ist es zu klären, ob und zu welchen Bedingungen diese Personengruppe
bereits erwerbsmäßig arbeitet und welche Anreize, Erwartungen und
Angebote erfüllt werden müssten, um (noch) mehr Ruheständler für Erwerbstätigkeiten
reaktivieren zu können. Die Forschungsfrage wird auf Grundlage der
Auswertung von aktueller Fachliteratur und Befragungen mit Ruheständlern
sowie Unternehmen diskutiert. Die Arbeit gliedert sich in sechs Kapitel. Im ersten
Kapitel werden Problemstellung, Zielsetzung und Abgrenzung sowie der Aufbau
dargestellt. Kapitel zwei erläutert den demografischen Wandel Deutschlands und
dessen Herausforderungen und Auswirkungen. Das dritte Kapitel vermittelt die
Voraussetzungen für eine Beschäftigung von Ruheständlern. Maßnahmen zur
Bewältigung demografischer Herausforderungen mittels Reaktivierung von
Ruheständlern werden im vierten Kapitel vorgestellt. Die empirischen Ergebnisse
der Umfragen werden in Kapitel fünf illustriert. Das darauffolgende Kapitel sechs
komplettiert die vorliegende Arbeit mit einem Fazit. Im Ergebnis wird deutlich,
dass mehr als die Hälfte der interviewten Unternehmen bereits Ruheständler
beschäftigen. Die Erwartungen dieser Personengruppe an die Arbeitsbedingungen
einer erwerbsmäßigen Tätigkeit stimmen weitgehend mit der
betrieblichen Praxis überein. Allerdings ist die Quote der befragten Rentner, die
in ihrem Ruhestand weiterarbeiten deutlich geringer als erwartet.
Hintergrund: Ziel dieser Bachelorarbeit war zu überprüfen, welche Auswirkungen Corneal Cross Linking auf die weitere Versorgung von Keratokonuspatienten mit formstabilen Kontaktlinsen hat. Patienten und Methode: 15 Keratokonuspatienten, die formstabile Kontaktlinsen trugen und in der Vergangenheit eine Kollagenvernetzung erhalten hatten, wurden anhand ihrer Patientendaten hinsichtlich der Veränderungen von Hornhautradien, Sehleistung und Kontaktlinsenparametern untersucht. Ergebnisse: Der flache Hornhautmeridian vor CCL (MW 7,25mm, SD ±0,48mm) unterscheidet sich nicht signifikant (Wilcoxon, p=10%) vom flachen Hornhautmeridian nach CCL (MW 7,27mm, SD ±0,48mm). Alle Patienten konnten nach dem Eingriff weiterhin mit Kontaktlinsen versorgt werden, jedoch wurde bei 13 Patienten eine Neuanpassung aufgrund von Änderungen des Brechwerts oder der Linsengeometrie vorgenommen.. Die Sehleistung mit Kontaktlinsen war nach Corneal Cross Linking bei 13 Patienten gleichbleibend oder besser. Schlussfolgerung: Die Ergebnisse zeigen, dass eine Folgeversorgung mit Kontaktlinsen nach Corneal Cross Linking möglich ist und keine zusätzlichen Probleme als bei normaler Kontaktlinsenversorgung für den Anpasser darstellt. Erfahren jedoch die Hornhautradien bzw. der Brechwert eine Veränderung, sollten neue Kontaktlinsen angepasst werden, um eine bestmögliche Sehleistung für den Patienten zu erreichen.
Organische Chemie
(2021)
Das Ziel der vorliegenden Bachelorarbeit ist es, das Kaufverhalten der Vorgängergenerationen mit dem der Generationen Y und Z zu vergleichen und daraus resultierende Informationen über die Auswirkungen auf die Augenoptik in Deutschland zu erhalten, um den Markt besser zu verstehen und daraus zu lernen.
Dazu wurden zunächst das Kaufverhalten im Allgemeinen und die zugehörigen Segmente spezifiziert und alle Generationen mittels Literaturrecherche definiert und ihre Merkmale analysiert. Darauffolgend wurde das Kaufverhalten der einzelnen Generationen miteinander verglichen und die prägenden Merkmale der Generation Y und Z auf die Marktsituation in der Augenoptik übertragen.
Software design patterns and the abstractions they offer can support developers and maintainers with program code comprehension. Yet manually-created pattern documentation within code or code-related assets, such as documents or models, can be unreliable, incomplete, and labor-intensive. While various Design Pattern Detection (DPD) techniques have been proposed, industrial adoption of automated DPD remains limited. This paper contributes a hybrid DPD solution approach that leverages a Bayesian network integrating developer expertise via rule-based micropatterns with our machine learning subsystem that utilizes graph embeddings. The prototype shows its feasibility, and the evaluation using three design patterns shows its potential for detecting both design patterns and variations.
While Virtual Reality (VR) has been applied to various domains to provide new visualization and interaction capabilities, enabling programmers to utilize VR for their software development and maintenance tasks has been insufficiently explored. In this paper, we present the Hyper-Display Environment (HyDE) in the form of a mixed-reality (HyDE-MR) or virtual reality (HyDE-VR) variant respectively, which provides simultaneous multiple operating system window visualization with integrated keyboard/mouse viewing and interaction using MR or in pure VR via a virtual keyboard. This paper applies HyDE in a software development case study as an alternative to typical non-VR Integrated Development Environments (IDEs), supporting software engineering tasks with multiple live screens in VR as an augmented virtuality. The MR solution concept enables programmers to benefit from VR visualization and virtually unlimited information displays while supporting their more natural keyboard interaction for basic code-centric tasks. Thus, developers can leverage VR paradigms and capabilities while directly interacting with their favorite tools to develop and maintain program code. A prototype implementation is described, with a case study demonstrating its feasibility and an initial empirical study showing its potential.
Enterprise Architecture (EA) Frameworks (EAFs) have attempted to support comprehensive and cohesive modeling and documentation of the enterprise. However, these EAFs were not conceived for today’s rapidly digitalized enterprises and the associated IT complexity. A digitally-centric EAF is needed, freed from the past restrictive EAF paradigms and embracing the new potential in a data-centric world. This paper proposes an alternative EAF that is digital, holistic, and digitally sustainable - the Digital Diamond Framework. D2F is designed for responsive and agile enterprises, for aligning business plans and initiatives with the actual enterprise state, and addressing the needs of EA for digitized structure, order, modeling, and documentation. The feasibility of D2F is demonstrated with a prototype implementation of an EA tool that applies its principles, showing how the framework can be practically realized, while a case study based on ArchiSurance example and an initial performance and scalability characterization provide additional insights as to its viability.
Databases are becoming an ubiquitous and integral part of most software as the data era and the Internet of Everything unfolds. Alternative database types such as NoSQL grow in popularity and allow data to be stored and accessed more simply or in new ways. Thus, software developers, not just database specialists, are more likely to encounter and need to deal with databases. Virtual Reality (VR) technology has grown in popularity, yet its integration in the software development tool chain has been limited. One potential application area for VR technology that has not been sufficiently explored is database-model visualization. This paper describes Virtual Reality Immersion in Data Models (VRiDaM), a generic database-model approach for visualizing, navigating, and conveying database-model information interactively. It describes and explores both native VR and WebVR solution concepts, with prototypes showing the viability of the approach.
DEKXTROSE: An Education 4.0 Mobile Learning Approach and Object-Aware App Based on a Knowledge Nexus
(2020)
The exponential growth in knowledge coupled with the decreasing knowledge half-life creates a challenging situation for educational programs - particularly those preparing software engineers for their very dynamic high-technology field. Teachers in high technology education areas are challenged in selecting and making relevant knowledge intuitively accessible to students, especially with regard the highly dynamic digital and software technologies. This paper contributes a knowledge nexus-based multimedia approach aligned with Higher Education 4.0 for creating learning apps on mobile devices that support multiple didactic models, leverage intrinsic curiosity and motivation, support gamification, and enable digital collaboration. Object recognition is used to trigger learning paths, and various didactic methods are supported via workflow-like learning flows to support group or team-based learning. A prototype app was realized to demonstrate its feasibility and an empirical evaluation in software engineering shows the didactic potential and advantages of the approach, which can be readily generalized and applied to the arts, sciences, etc.
As the amount of software source code increases, manual approaches for documentation or detection of software design patterns in source code become inefficient relative to the value. Furthermore, typical automatic pattern detection tools are limited to a single programming language. To address this, our Design Pattern Detection using Machine Learning (DPDML) offers a generalized and programming language agnostic approach for automated design pattern detection based on machine learning (ML). The focus of our evaluation was on ensuring DPDML can reasonably detect one design pattern in the structural, creational, and behavioral category for two popular programming languages (Java and C#). 60 unique Java and C# code projects were used to train the artificial neural network (ANN) and 15 projects were then used to test pattern detection. The results show the feasibility and potential for pursuing an ANN approach for automated design pattern detection.
DEKXTROSE: An Education 4.0 Mobile Learning Approach and Object-Aware App Based on a Knowledge Nexus
(2020)
The exponential growth in knowledge coupled with the decreasing knowledge half-life creates a challenging situation for educational programs - particularly those preparing software engineers for their very dynamic high-technology field. Teachers in high technology education areas are challenged in selecting and making relevant knowledge intuitively accessible to students, especially with regard the highly dynamic digital and software technologies. This paper contributes a knowledge nexus-based multimedia approach aligned with Higher Education 4.0 for creating learning apps on mobile devices that support multiple didactic models, leverage intrinsic curiosity and motivation, support gamification, and enable digital collaboration. Object recognition is used to trigger learning paths, and various didactic methods are supported via workflow-like learning flows to support group or team-based learning. A prototype app was realized to demonstrate its feasibility and an empirical evaluation in software engineering shows the didactic potential and advantages of the approach, which can be readily generalized and applied to the arts, sciences, etc.
The volume of program source code created, reused, and maintained worldwide is rapidly increasing, yet code comprehension remains a limiting productivity factor. For developers and maintainers, well known common software design patterns and the abstractions they offer can help support program comprehension. However, manual pattern documentation techniques in code and code-related assets such as comments, documents, or models are not necessarily consistent or dependable and are cost-prohibitive. To address this situation, we propose the Hybrid Design Pattern Detection (HyDPD), a generalized approach for detecting patterns that is programming-language-agnostic and combines graph analysis (GA) and Machine Learning (ML) to automate the detection of design patterns via source code analysis. Our realization demonstrates its feasibility. An evaluation compared each technique and their combination for three common patterns across a set of 75 single pattern Java and C# public sample pattern projects. The GA component was also used to detect the 23 Gang of Four design patterns across 258 sample C# and Java projects as well as in a large Java project. Performance and scalability were measured. The results show the advantages and potential of a hybrid approach for combining GA with artificial neural networks (ANN) for automated design pattern detection, providing compensating advantages such as reduced false negatives and improved F1 scores.
With the increasing pressure to deliver additional software functionality, software engineers and developers are often confronted with the dilemma of sufficient software testing. One aspect to avoid is test redundancy, and measuring test (or code or statement) coverage can help focus test development on those areas that are not yet sufficiently tested. As software projects grow, it can be difficult to visualize both the software product and the software testing area and their dependencies. This paper contributes VR-TestCoverage, a Virtual Reality (VR) solution concept for visualizing and interacting with test coverage, test results, and test dependency data in VR. Our VR implementation shows its feasibility. The evaluation results based on a case study show its support for three testing-related scenarios.
The increasing demand for software functionality necessitates an increasing amount of program source code that is retained and managed in version control systems, such as Git. As the number, size, and complexity of Git repositories increases, so does the number of collaborating developers, maintainers, and other stakeholders over a repository’s lifetime. In particular, visual limitations of Git tooling hampers repository comprehension, analysis, and collaboration across one or multiple repositories with a larger stakeholder spectrum. This paper contributes VR-Git, a Virtual Reality (VR) solution concept for visualizing and interacting with Git repositories in VR. Our prototype realization shows its feasibility, and our evaluation results based on a case study show its support for repository comprehension, analysis, and collaboration via branch, commit, and multi-repository scenarios.
Repeatable processes are fundamental for describing how enterprises and organizations operate, for production, for Industry 4.0, etc. As digitalization and automation progresses across all organizations and industries, including enterprises, business, government, manufacturing, and IT, evidence-based comprehension and analysis of the processes involved, including their variations, anomalies, and performance, becomes vital for an increasing set of stakeholders. Process Mining (PM) relies on logs or processes (as such evidence-based) to provide process-centric analysis data, yet insights are not necessarily visually accessible for a larger set of stakeholders (who may not be process or data analysts). Towards addressing certain challenges described in the Process Mining Manifesto, this paper contributes VR-ProcessMine, a solution for visualizing and interacting with PM results in Virtual Reality (VR). Our realization shows its feasibility, and a case-based evaluation provides insights into its capabilities.
As systems grow in complexity, the interdisciplinary nature of systems engineering makes the visualization and comprehension of the underlying system models challenging for the various stakeholders. This, in turn, can affect validation and realization correctness. Furthermore, stakeholder collaboration is often hindered due to the lack of a common medium to access and convey these models, which are often partitioned across multiple 2D diagrams. This paper contributes VR-SysML, a solution concept for visualizing and interacting with SysML models in Virtual Reality (VR). Our prototype realization shows its feasibility, and our evaluation results based on a case study shows its support for the various SysML diagram types in VR, cross-diagram element recognition via our backplane followers concept, and depicting further related (SysML and non-SysML) models side-by-side in VR.
VR-V&V
(2023)
To build quality into a software (SW) system necessitates supporting quality-related lifecycle activities during the software development. In software engineering, software Verification and Validation (V&V) processes constitute an inherent part of Software Quality Assurance (SQA) processes. A subset of the V&V activities involved are: 1) bidirectional traceability analysis of requirements to design model elements, and 2) software testing. Yet the complex nature of large SW systems and the dependencies involved in both design models and testing present a challenge to current V&V tools and methods regarding support for trace analysis. One of software’s essential challenges remains its invisibility, which also affects V&V activities. This paper contributes VR-V&V, a Virtual Reality (VR) solution concept towards supporting immersive V&V activities. By visualizing requirements, models, and testing artifacts with dependencies and trace relations immersively, they are intuitively accessible to a larger stakeholder audience such as SQA personnel while supporting digital cognition. Our prototype realization shows the feasibility of supporting immersive bidirectional traceability as well as immersive software test coverage and analysis. The evaluation results are based on a case study demonstrating its capabilities, in particular traceability support was performed with ReqIF, ArchiMate models, test results, test coverage, and test source to test target dependencies.
VR-SysML+Traceability
(2023)
As systems grow in complexity, the interdisciplinary nature of systems engineering makes the visualization and comprehension of the underlying system models challenging for the various stakeholders. This, in turn, can affect validation and realization correctness. Furthermore, stakeholder collaboration is often hindered due to the lack of a common medium to access and convey these models, which are often partitioned across multiple 2D diagrams. This paper contributes VR-SysML, a solution concept for visualizing and interacting with Systems Modeling Language (SysML) models in Virtual Reality (VR). Our prototype realization shows its feasibility, and our evaluation results based on a case study shows its support for the various SysML diagram types in VR, cross-diagram element recognition via our Backplane Followers concept, and depicting further related (SysML and non-SysML) models side-by-side in VR.
VR-GitCity
(2023)
The increasing demand for software functionality necessitates an increasing amount of program source code that is retained and managed in version control systems, such as Git. As the number, size, and complexity of Git repositories increases, so does the number of collaborating developers, maintainers, and other stakeholders over a repository’s lifetime. In particular, visual limitations of command line or two- dimensional graphical Git tooling can hamper repository comprehension, analysis, and collaboration across one or multiple repositories when a larger stakeholder spectrum is involved. This is especially true for depicting repository evolution over time. This paper contributes VR-GitCity, a Virtual Reality (VR) solution concept for visualizing and interacting with Git repositories in VR. The evolution of the code base is depicted via a 3D treemap utilizing a city metaphor, while the commit history is visualized as vertical planes. Our prototype realization shows its feasibility, and our evaluation results based on a case study show its depiction, comprehension, analysis, and collaboration capabilities for evolution, branch, commit, and multi-repository analysis scenarios.
VR-EDStream+EDA
(2023)
With increasing digitalization, the importance of data and events, which comprise its most fundamental level, cannot be overemphasized. All types of organizations, including enterprises, business, government, manufacturing, and the supporting IT, are dependent on these fundamental building blocks. Thus, evidence-based comprehension and analysis of the underlying data and events, their stream processing, and correlation with enterprise events and activities becomes vital for an increasing set of (grassroot or citizen) stakeholders. Thus, further investigation of accessible alternatives to visually support analysis of data and events is needed. This paper contributes VR-EDStream+EDA, a solution for immersively visualizing and interacting with data and event streams or pipelines and generically visualizing Event-Driven Architecture (EDA) in Virtual Reality (VR). Our realization shows its feasibility, and a case-based evaluation provides insights into its capabilities.
Die Six Sigma-Methodik hilft Unternehmen als strategisches Marketing-Tool die Qualität der Produkte und Prozesse durch den Einsatz von statistischen Werkzeugen und fundierten Prozessoptimierungsmethoden zu verbessern, die Kunden zufriedener zu machen und die Abläufe im Unternehmen zu beschleunigen. Ziel der Arbeit ist es herauszufinden, ob sich dieses Qualitätsmanagement-Konzept auch auf die Gegebenheiten, Prozesse und Anforderungen in einem augenoptischen Betrieb wirksam anwenden lässt. In fünf klar definierten Projektphasen werden unter anderem durch die Erhebung, Analysierung und Auswertung von prozessbezogenen Daten Schwachstellen in betrieblichen Abläufen faktenbasiert offengelegt und fundiert verbessert. Ziel ist es, die Fehlerquote eines Prozesses auf ein Maß zu reduzieren, so dass von einer (annähernden) Null-Fehler-Qualität gesprochen werden kann. Die statistische Basis der Six Sigma-Methodik findet sich in der Tatsache begründet, dass alle betrieblichen Vorgänge einer Streuung vom statistischen Maß des „Soll-Wertes“ (Mittelwert μ) unterliegen, die sich durch eine Gauß’sche Normalverteilungskurve beschreiben lassen. Diese Streuungen (hier als Varianz oder Standardabweichung (σ) bezeichnet) sind als „Ist-Werte“ am Ende eines Prozesses zu verstehen. Um die Leistung eines Prozesses beurteilen zu können wird geprüft, wie oft die errechnete Standardabweichung zwischen den Zielwert und die Spezifikationsgrenzen passt. Die Anzahl stellt den Sigma-Wert des Prozesses dar. Die zentrale Aufgabe dieser Thesis ist es, darzulegen ob ─ und wenn ja ─ wie die Six Sigma-Methodik für kleine und mittlere Unternehmen im augenoptischen Fachbetrieb effektiv und sinnvoll zu implementieren ist. Die Recherchen und Analysen der Arbeit kommen diesbezüglich zu dem Ergebnis, dass Six Sigma durchaus eine Option für ein augenoptisches Unternehmen darstellen kann, das qualitative Niveau von Prozessen und Dienstleistungen zu heben. Jedoch bedarf es besonderer Sorgfalt bei der Auswahl geeigneter Prozesse und einer detaillierten Kosten-Nutzen-Aufstellung um mit Six Sigma effizient zu arbeiten und nachhaltigen Erfolg zu haben.
Ziel dieser Bachelorthesis „Digitalisierung in der Augenoptik: Konzeption eines Online-portals“ stellt einen Leitfaden zur Umsetzung einer erfolgreichen Website für stationäre augenoptische Fachgeschäfte dar. In diesem Zusammenhang wird ein Glossar zu augenoptischen Begriffen erarbeitet, welches in einem Onlineportal integriert werden kann.
Zuerst werden Grundlagen zur Entwicklung und Nutzung des Internets, zur Einbindung in das Marketingkonzept, zu Aufmerksamkeits- und Denkprozessen des Menschen, sowie zur Kommunikation dargelegt. Abschließend wird auf die sich ergebenden Chancen für Optikergeschäfte eingegangen.
Im Kernteil der Arbeit wird ein Konzept erarbeitet, welches Analysen, Strategie- und Zielsetzung, Konzeptideen, die Umsetzung und das Controlling beinhaltet. Darauffolgend ist eine zusammenfassende Checkliste aufgeführt. Diese Anleitung garantiert ein erfolgreiches Webportal.
Um den potenziellen Kunden innerhalb der Website auf den anstehenden Kauf vorzubereiten oder sich über ein spezielles Thema informieren zu können, ist ein Glossar zu den wichtigsten Begriffen der Augenoptik aufgeführt. In diesem Verzeichnis sind 42 Elemente erklärt. Durch die Integration auf der Website verschafft sich das Unternehmen einen Expertenstatus. Das Glossar kann und soll nach der Thesis vervollständigt werden und durch Videos visualisiert werden.
In elektrischen Maschinen werden zur Führung des magnetischen Flusses Eisenkerne aus voneinander isolierten, dünnen Elektroblechlamellen verwendet. Die weichmagnetischen Eigenschaften und der im Vergleich zu reinem Eisen erhöhte elektrische Widerstand dieses Werkstoffs sind essentiell für die Leistung und den Wirkungsgrad der Maschine. Bis zum fertigen Eisenkern beziehungsweise bis zum fertigen Antrieb durchläuft das Elektroband mehrere Fertigungsschritte. Durch das formgebende Schneiden werden die magnetischen Eigenschaften im Schnittkantenbereich beeinflusst, wodurch die Eisenverluste erhöht werden und die Polarisierbarkeit gesenkt wird. Darüber hinaus werden bei der Montage der Eisenkerne zusätzlich mechanische Spannungen in das Material eingebracht, was sich ebenfalls negativ auf die Performance der elektrischen Maschine auswirkt. Gegenstand dieser Arbeit ist die experimentelle Untersuchung der genannten Bearbeitungsverfahren auf die magnetischen Eigenschaften und Eisenverluste unter Berücksichtigung der Materialparameter wie Korngröße und Legierungsgehalt. Ein Schwerpunkt liegt dabei auf der quantitativen vergleichenden Bewertung der unterschiedlichen Schneidverfahren. Der zweite Teil dieser Arbeit beschäftigt sich mit den Auswirkungen von makroskopischen mechanischen Spannungen, wie sie bei der Montage entstehen, und der Korrelation mit den Auswirkungen des Schneidprozesses. Bei den untersuchten Materialien handelt es sich um großtechnisch hergestellte Seriengüten, welche in elektrischen Antrieben von Hybrid- und E-Fahrzeugen eingesetzt werden. Um den Einfluss des Schneidens zu untersuchen wurde ein experimentelles Verfahren entwickelt, welches sowohl makro- als auch mikromagnetische Untersuchungen kombiniert. Zusätzlich wurden lichtmikroskopische Aufnahmen und Mikrohärtemessungen durchgeführt. Damit die Ergebnisse vergleichbar sind wurde für beide Untersuchungsarten dieselbe Probengeometrie in Form vom Ringkernen gewählt. Für die Untersuchung von makroskopischen Spannungen wurde die feldmetrische Methode mit Streifenproben verwendet, sodass die mechanische Spannung homogen über den Probenquerschnitt anliegt.
Zielsetzung Das Ziel der vorliegenden Bachelorarbeit „Auswirkung eines Hörtraining auf das Sprachverstehen im Störlärm“ ist es, den Erfolg des Hörtrainings nach Warnke anhand eines Vergleichs mit einem Placebo-Hörtraining zu untersuchen. Zur vollständigen Überprüfung der Wirksamkeit werden die Messungen anhand einer Kontroll-Gruppe verglichen. Gleichzeitig werden die systematischen Veränderungen der Sprachverständlichkeit bei Probanden mit und ohne Hörgerät untersucht. Durch eine zusätzliche Erfassung anamnestischer Daten werden die aktuelle Hörsituation und mögliche weitere Einflussfaktoren auf das Sprachverstehen überprüft. Methodik Die Analyse erfolgt durch die Daten des anamnestischen Fragebogen und den wöchentlichen, standardisierten Messungen des Sprachverständlichkeitstests „Oldenburger Satztest“. Anhand der Literatur „Der Takt des Gehirns“ von Fred Warnke werden Hypothesen über das verwendete Hörtraining aufgestellt, die im Rahmen von empirischen Analysen überprüft werden. Dabei werden mögliche Einflussmöglichkeiten und Wechselwirkungen hinterfragt. Ergebnisse Insgesamt weisen die Ergebnisse darauf hin, dass sich das Sprachverstehen im Störlärm durch das Hörtraining verbessern lässt. Der Unterschied zur Placebo-Gruppe fällt jedoch gering aus. Auch die Kontroll-Gruppe erreicht einen kleinen Trainingserfolg. Weiterhin zeigt sich kein signifikanter Unterschied zwischen den versorgten und unversorgten Probanden. Es kann eine Wechselwirkung zwischen der Trainingsdauer und dem Trainingserfolg festgestellt werden, da der Trainingserfolg mit zunehmender Trainingsdauer zunimmt. Das Spielen eines Musikinstruments lässt sich beim Sprachverstehen im Störlärm nicht nachweisen, da es keinen signifikanten Unterschied zwischen Musiker und Nichtmusiker gibt. In der geschlechtsspezifischen Untersuchung wird deutlich, dass die Männer im Mittel einen größeren Trainingseffekt im Sprachverstehen erzielen als die Frauen. Die Abhängigkeit des Trainingserfolgs vom Aspekt des Alters kann durch diese Arbeit bestätigt werden. Je älter die Probanden sind, desto geringer fällt der Trainingserfolg durch das Hörtraining aus.
Die Veränderungen durch die Digitalisierung haben Konsequenzen für zahlreiche Bereiche. Unternehmen und ihre Geschäftsmodelle sehen sich mit tiefgreifenden Transformationen konfrontiert. Problematisch sind hierbei insbesondere die mangelnde Konkretisierung der Digitalisierung sowie die tatsächlichen Auswirkungen und der daraus entstehende Nutzen. Vor dem Hintergrund der digitalen Transformation stellt sich die Frage, inwiefern die Finanzfunktion von der Digitalisierung betroffen ist. Angesichts der hohen Unsicherheit bezüglich des zukünftigen Geschäftsumfelds steht noch nicht fest, inwieweit Finanzbereiche beeinflusst werden und vor allem, wie sich deren Profile anpassen müssen.
Die Zielsetzung dieser Arbeit folgt der zentralen Fragestellung, welche Veränderungen die Finanzfunktion vor dem Hintergrund der Digitalisierung durchlebt. Dabei wird sich auf folgende Hypothese gestützt: Im Zuge der Digitalisierung wird sich die Finanzfunktion nachhaltig verändern. Die Transformation hat Auswirkungen auf das Rollenverständnis, Kompetenzen sowie Methoden und Prozesse der Finanzfunktion. Dabei wird zunächst im theoretischen Bezugsrahmen auf Grundlagen der Finanzfunktion, bestimmte Aspekte der digitalen Transformation sowie neue Geschäftsmodelle eingegangen. Basierend auf Einschätzungen der Literatur wird ein erster Überblick über das Verständnis der Finanzfunktion der digitalen Welt präsentiert.
Anschließend werden Best Practices herangezogen, um erfolgreich durchgeführte Praxisbeispiele und Erfolgsfaktoren aufzuzeigen. Außerdem standen sieben Exper-ten zur Verfügung, um ihre Einschätzungen zu teilen.
Auf Grundlage der Erkenntnisse werden Anforderungen an die zukünftige Finanzfunktion synthetisiert. Es stellt sich ein besonderer Fokus auf das Rollenverständnis, Prozesse und Kompetenzen der Finanzfunktion heraus. Darüber hinaus stellen Organisationsstruktur, Kultur und Technologie wichtige Faktoren dar. Relevant ist insbesondere das Thema Big Data und damit einhergehend Data Analytics. Essenziell ist auch das Fördern einer entscheidungsfreudigen und mutigen Finanzfunktion, die den Transformationen gewachsen ist und dafür begeistern kann.
Hierarchy-aware Learning of Sequential Tool Usage via Semi-automatically Constructed Taxonomies
(2020)
Demographische Veränderungen durch eine zunehmende Alterung der Gesellschaft und eine Zunahme an Erkrankungen wie der AMD, des Glaukoms und der diabetischen Retinopathie stellen ophthalmologische Versorgungs- und Vorsorgemaßnahmen in Deutschland vor immer größere Herausforderungen. Einen wesentlichen Beitrag zur Sicherung der Vorsorgemaßnahmen können in der Zukunft Optometristen leisten. Mit Hilfe modernster Technologien, wie dem Ultra-Widefield-cSLO (Optos Daytona, können auch bei kleinen Pupillendurchmessern 200° Aufnahmen vom Augenhintergrund erstellt werden.
Transformations in the work–nonwork interface highlight the importance of effectively managing the boundaries between life domains. However, do the ways individuals manage the boundaries between work and nonwork life change from one day to the next? If so, which antecedents may explain these intra-individual fluctuations in boundary management? Drawing on boundary management, spillover, and resource theories, we investigate daily changes in segmentation preferences and integration enactments as a function of experiencing strain in work and nonwork life. Assuming that changes in segmentation preferences reflect an individual’s strategy to regulate negative cross-role spillover, we suppose that strain increases individuals’ segmentation preferences; at the same time, however, it could force individuals to enact more integration.
This paper describes an application analysis of one important topic of diversity
marketing – gender marketing. With the help of two surveys and content analyses
in two different media sectors – television and print media – the general trend of
gender representation in advertising could be located. While most survey
respondents are still using characteristics for males and females which were
shaped by traditional gender roles, most of them believe that the roles from the
1950s are outdated and that the media should adapt to the changes in societies in
regard to gender roles. However, the content analyses have shown that the
marketers have already adapted and are primarily presenting the viewers
contemporary images of men and women instead of the stereotyped ones from the
1950s. The only issue that has not changed yet is the color coding which starts to
differentiate between males and females since childhood. The findings of this
paper suggest that the perception and the reality do not always correspond with
each other and that, although the adoption of the change of gender roles is
advancing, it is still not completed yet.
Perspektiven deutscher Unternehmen auf dem ägyptischen Markt nach der demokratischen Revolution
(2011)
Diese Arbeit untersucht die Auswirkungen der demokratischen Revolution in Ägypten Anfang des Jahres 2011 auf die Tätigkeit deutscher Unternehmen auf dem Markt dieses Landes. Untersucht werden dazu zunächst die Ursachen dieser Revolution sowie deren Neuartigkeit und Diskontinuität im historischen Vergleich. Kern der Arbeit ist die Offenlegung der sich aus den politischen Ereignissen ergebenden wirtschaftlichen Potentiale und darauf folgend die Auswertung deren Bedeutung für deutsche Unternehmen. Analysiert werden dabei insbesondere die bereits heute bestehenden Absatzmöglichkeiten sowie der Nachholbedarf, der sich im Zuge der Entwicklung ergibt. Auf dieser Grundlage werden dann die sich ergebenden Chancen und Risiken für deutsche Exporteure verschiedener Branchen herausgearbeitet. Den Abschluss der Arbeit bilden eine zusammenfassende Bewertung der Revolution sowie ein Ausblick auf die zukünftige Entwicklung Ägyptens als Absatzmarkt deutscher Produkte. Das Thema weist einen hohen Grad an Aktualität auf, weshalb der Ausgang der Entwicklung zum Zeitpunkt der Erstellung der Arbeit völlig offen ist. So gibt es keine übereinstimmende Meinung dazu, welche politischen Strömungen sich in der künftigen Regierung in Kairo durchsetzen werden. Diskutiert werden lediglich verschiedene Szenarien, von einer mäßig-islamischen Demokratie nach dem Vorbild der Türkei bis hin zu einem radikal geführten Gottesstaat, wie er etwa im Iran besteht. Die politischen Rahmenbedingungen jedoch haben Einfluss auf die wirtschaftliche Struktur eines Landes und somit auf dessen Attraktivität für exportierende Unternehmen. So hängen Art und Umfang der Aktivitäten deutscher Unternehmen auf dem ägyptischen Markt maßgeblich von der weiteren politischen wie gesellschaftlichen Entwicklung ab. Nach einer Darstellung der revolutionären Ereignisse sowie deren Neuartigkeit und Diskontinuität, bei der unter anderem die gesellschaftliche Zusammensetzung der Demonstranten und die Nutzung neuer Medien thematisiert werden, erfolgt die Analyse durch eine Untersuchung der Auswirkungen der Revolution auf die einzelnen für deutsche Unternehmen relevanten Branchen, anschließend werden die Potentiale und Perspektiven deutscher Exporteure in den jeweiligen Branchen erörtert. Als Ergebnis wird festgehalten, dass sich die ägyptische Wirtschaft schnell von den teils gravierenden Auswirkungen der Revolution erholt hat und für deutsche Unternehmen in den meisten Bereichen gute Perspektiven bietet. Die einzige zum Zeitpunkt der Erstellung dieser Arbeit noch existierende Unsicherheit ist die Frage der weiteren politischen Entwicklung Ägyptens, hierzu wird insbesondere der Einfluss islamistischer Strömungen thematisiert.
Der positive Versorgungseffekt digitaler Gesundheitsanwendungen bei onkologischen Erkrankungen am Beispiel des Mammakarzinoms kann anhand onkologischer Leitlinienempfehlungen abgeleitet werden. Existieren bereits Studien zu Gesundheitsanwendungen mit positivem Versorgungseffekt, können die behandelten Funktionen als evidenzbasierter Ansatz verwendet werden. Betreffen diese Studien andere Krankheiten, sind diese Untersuchungen nicht auszuschließen. Ein positiver Versorgungseffekt könnte sich dennoch bei Brustkrebspatient:innen zeigen. Hier besteht in jedem Fall Forschungsbedarf. Bei der Umsetzung der Leitlinienempfehlungen mittel App sollte darauf geachtet werden, ob die Empfehlungen allein durchführbar sind oder ob dafür professionelle persönliche Unterstützung nötig ist. Je nach Ergebnis wird entschieden, ob die Empfehlung digital umsetzbar ist oder nicht.
Ziel der vorliegenden Bachelorarbeit war es, ein Weblog für die studentische Kontaktlinsensprechstunde des Studiengangs Augenoptik an der Hochschule für Technik und Wirtschaft in Aalen zu erstellen. Im Rahmen der Sprechstunde werden Kunden durch die Studierenden mit Kontaktlinsen versorgt. Das Weblog soll sowohl den Kunden als auch den Studierenden als Informati-onsquelle sowie zur Vor- und Nachbereitung der Kontaktlinsensprechstunde dienen. Es wurde mithilfe der Software WordPress.org erstellt. Diese lag in der Version 3.5.1 auf einer externen Festplatte mit dem Betriebssystem Ubuntu Linux 12.04 LTS vor. Das erstellte Weblog setzt sich insgesamt aus 36 Seiten zusammen, wobei acht als Hauptseiten eingerichtet wurden. Insgesamt wurden 48 Bilder eingefügt um die verfassten Texte zu verdeutlichen. Außerdem wurde ein Glossar eingerichtet, dank dem sich die Leser Erklärungen zu verschiedenen Fachbegriffen anzeigen lassen können.
Brand Identity
(2019)
Novel myopia control spectacle lenses induce peripheral contrast reduction via optical diffusion. It is suggested, that the contrast reduction alters retinal processes in the low-level neural circuity, leading to an inhibition of eye growth. The purpose of this thesis is to evaluate the influence of full-field contrast reduction on low-level neural processing of the retina, described by the edge contrast sensitivity.
Ziel und Zweck der Arbeit:
In dieser Arbeit wurden die Visusergebnisse der häufig verwendeten ETDRS- und Landoltring-Sehzeichentafeln mit denen des Freiburg Visual Acuity Test (FrACT) verglichen. Zusätzlich wird ein Hauptaugenmerk auf den Vergleich zweier Eingabemethoden für den Freiburg Visual Acuity Test gelegt, um ein mögliches Verbesserungspotenzial dieser aufzudecken. Bei den verwendeten Eingabemethoden handelte es sich um einen dreh- und fühlbaren Landolting (FrACTh) und die Eingabe mit einer modifizierten Zahlentastatur (FrACTk). Ziel dieser Studie war es, quantitative Aussagen zu folgenden Messgrößen zu ermitteln:
(i) die Übereinstimmung des FrACTk und FrACTh,
(ii) deren Reproduzierbarkeit,
(iii) die Übereinstimmung der Visusergebnisse aller verwendeter Tests und
(iv) deren Reproduzierbarkeit zu quantifizieren.
Material und Methoden:
Als Probanden nahmen an der Studie 25 augengesunde Studenten der Hochschule Aalen (19 – 28 Jahre) teil. Der Fernvisus jedes Probanden lag, mit oder ohne Korrektion, bei 0,2 oder höher. Ausgeschlossen waren Studenten der höheren Semester (ab zweiten Semester) des Studiengangs Augenoptik und Hörakustik. Die Messungen wurden monokular vorgenommen und erfolgten in randomisierten Abfolge der einzelnen Tests. Jeder Test wurde zweimal durchgeführt. „Forced choice“ und das 60% Kriterium wurden streng eingehalten. Es wurde kein Feedback in Bezug auf die Korrektheit der gegebenen Antwort gegeben.
Ergebnisse: Übereinstimmung der Sehschärfeergebnisse des FrACTk und FrACTh: Die Differenz der Mediane der beiden Tests nach dem ersten Testdurchlauf beträgt 0,074 logMAR (0,7 Zeilen) wobei FrACTh (-0,117 logMAR) bessere Resultate liefert. Dies ist im zweiten Durchlauf ebenfalls der Fall (FrACTh -0,112 logMAR) wobei die Differenz der Mediane hier geringer ist und noch 0,048 logMAR (0.5 Zeilen entspricht). Da die Differenzen der Mediane geringer sind als 0,3 logMAR (3 Zeilen), besteht statistisch kein signifikanter Unterschied zwischen den beiden Tests.
Übereinstimmung aller verwendeter Tests (ETDRS-, Landoltringtafeln, FrACTh und FrACTk ) in Bezug auf die Sehschärfewerte: Im Vergleich aller verwendeter Tests liefert im ersten Testdurchlauf auch hier der FrACTh mit -0,117 logMAR die besten Resultate. Mit -0,043 logMAR sind die Ergebnisse des FrACTk am schlechtesten und sind denen der Landoltringtafeln mit -0,048 logMAR sehr ähnlich. ETDRS ist um 0,2 Zeilen schlechter als FrACTh mit -0,097 logMAR. Im zweiten Testdurchlauf sind die Werte für den FrACTh und ETDRS annähernd gleich während die Ergebnisse der Landoltringta-feln um 0,5 Zeilen auf -0,097 logMAR steigen. Der FrACTk liefert hier mit -0,064 logMAR einen Anstieg um 0,2 Zeilen. Die Differenzen der Mediane sind kleiner als 0,3 logMAR (3 Zeilen).
Reproduzierbarkeit aller verwendeter Tests: Die Reproduzierbarkeit lag beim Vergleich der beiden Testdurchläufe für FrACTk und FrACT bei 0,012 logMAR bei ETDRS und Landoltringtafeln gab es mit 0 logMAR keinen Unterschied. Beim Vergleich der Tests untereinander (nur erster Testdurchlauf wurde verglichen) ist die Reproduzierbarkeit der FrACTk um 0,041 logMAR besser als die des FrACTh. Mit Werten für ICC <0.77 ist eine hohe Korrelation gegeben.
Schlussfolgerung:
Die Übereinstimmungen als auch die Reproduzierbarkeiten der einzelnen Tests war im Vergleich mit den aufgeführten Vergleichsstudien hoch. Der FrACTh erzielte sehr gute Visusergebnisse wohingegen der FrACTk in dieser Studie die schlechtesten Werte diesbezüglich aufwies. Fortführend ist eine Weiterentwicklung der Eingabemethoden für den FrACT angeraten.