Filtern
Erscheinungsjahr
Dokumenttyp
- Research Paper (143)
- Diplomarbeit (58)
- Teil eines Buches (Kapitel) (40)
- Dissertation (37)
- Bericht (30)
- Wissenschaftlicher Artikel (19)
- Beitrag in Konferenzband (13)
- Buch (Monographie) (9)
- Sonstiges (7)
- Zeitschrifteneinzelheft (3)
Schlagworte
- Informatik (18)
- Kultur (15)
- Schule (12)
- Deutschland (10)
- Export (10)
- Produktivität (9)
- Unternehmen (9)
- Computer (7)
- Exports (7)
- Germany (7)
Institut
- Frühere Fachbereiche (363) (entfernen)
Viele Probleme der angwandten Statistik zeichnen sich dadurch aus, dass die zu überprüfende 'globale' Nullhypothese als Schnittmenge von n Einzelhypothesen aufgefasst werden kann. Aus unterschiedlichen Gründen möchte man statt der globalen Hypothese die n Einzelhypothesen testen. Entscheidend ist dabei, das Gesamtsignifikanzniveau trotz beliebiger Abhängigkeiten der Einzeltests unter Kontrolle zu behalten. Eine übergreifende Zusammenfassung und Verallgemeinerung der Methoden bildet den Gegenstand der vorliegenden Arbeit.
Im Mittelpunkt der Systemprogrammierung steht die Entwicklung, Anpassung, parametergesteuerte Generierung und Betreuung der gesamten Betriebssoftware eines DV-Systems sowie eine Unterstützung bei der Anpassung von Basissoftware und Anwendungssoftware an ein Betriebssystem. Der vorliegende Text beinhaltet folgende Themen: Beschreibung grundlegender Aspekte von Rechnerarchitektur, Sprachkonzepte höherer Programmiersprachen, systemnahe Aspekte der Programmierung, Konzepte der objektorientierten Programmierung etc.
Mit Die empirischen Grundlagen der Unterrichtsforschung legte Klaus Beck ein methodenkritisches Werk vor, was man ohne weiteres als große Herausforderung für empirisch arbeitende Wissenschaftler bezeichnen kann. Es wühlt auf, versucht Beck doch zu zeigen, dass Beobachtungs- und Befragungsmethoden wegen der Bedeutungsüberschneidung der Kategorien resp. ratings nicht hinreichend valide sind, um ein genaues Bild der Unterrichtswirklichkeit geben zu können. Das Erkenntnisziel der analytisch-empirischen Unterrichtsforschung sei systematisch verfehlt.
This paper analyzes conditions for existence of a strongly rational expectations equilibrium (SREE) in models with private information, where the amount of private information is endogenously determined. It is shown that the conditions for existence of a SREE known from models with exogenously given private information do not change as long as it is impossible to use the information transmitted through market prices. In contrast, these conditions are too weak, when there is such learning from prices. It turns out that the properties of the function which describes the costs that are associated with the individual acquisition of information are important in this respect. In case of constant marginal costs, prices must be half as informative than private signals in order for a SREE to exist. An interpretation of this result that falls back on the famous Grossman–Stiglitz–Paradox is also given.
Systemanalyse für Softwaresysteme ist ein Manuskript zum Selbststudium und zur Begleitung von Lehrveranstaltungen. Es vermittelt eine Einführung in die Systemanalyse in diesem Informatik-Kontext. Systemanalyse wird dargestellt als ein zielorientiertes Vorgehen mit vielfältigen Konkretisierungs- und Abstraktionsaktivitäten. Die Vorgehensweise wird anhand von Beispielen erläutert.
Für die Neufassung der Handwerksordnung zum 1.1.2004 war die hohe Ausbildungsleistung des Handwerks ein zentrales Argument, die im Falle einer überzogenen Deregulierung einbrechen würde. Folgt man der ökonomischen Theorie werden Handwerksbetriebe ausbilden, wenn der erwartete Nutzen die erwarteten Kosten überwiegt; Ausbildung wird zum unternehmerischen Erfolgsfaktor. Die zweimalige Befragung Lüneburger Handwerksbetriebe, die im Rahmen eines Projektes zur Regulierung auf dem deutschen Handwerksmarkt in Zusammenarbeit mit der Kreishandwerkerschaft Lüneburg durchgeführt wurde, zeigt, dass vor allem die Ausbildungsaktivität selbst zu einer guten bis sehr guten wirtschaftlichen Lage führt bzw. diese verbessert. Allerdings ist dieser Effekt nach relativ kurzer Frist (zwei Jahre oder mehr) wieder verschwunden.
Viele Regelungen im deutschen Arbeitsrecht gelten nur für Betriebe ab einer bestimmten Größe, wobei derartige Schwellen meist anhand der Beschäftigtenzahl bestimmt werden. Die bestehenden 160 Schwellenwerte sind komplex und inkonsistent definiert, was ihre Beachtung durch die Firmen erschwert. Darüber hinaus kann das Überschreiten einer Schwelle zu zusätzlichen Kosten für die Firma führen, wie z.B. die Errichtung eines Betriebsrates oder die Zahlung einer Abgabe für die Nichtbeschäftigung von Schwerbehinderten. Obwohl die empirische Evidenz nicht eindeutig ist, deuten einige Studien darauf hin, dass Firmen das Überschreiten von Schwellenwerten bewusst vermeiden und der Beschäftigungsaufbau dadurch gedämpft wird. Um diese Transaktionskosten und Nebenwirkungen zu vermeiden, machen wir verschiedene Vorschläge zur Vereinfachung und Vereinheitlichung der Schwellenwertregelungen.
Datenmodelle sind ein zentraler Bestandteil betrieblicher Informationssysteme. In der Praxis eingesetzte Datenmodelle erreichen oft eine erhebliche Komplexität. Eine Möglichkeit zur Reduktion der Komplexität besteht darin, gleiche oder ähnliche Teilstrukturen zu identifizieren. Durch Ausnutzung solcher Strukturanalogien kann dann das Datenmodell vereinheitlicht und vereinfacht werden. Ziel dieses Aufsatzes ist es, die bestehenden Ansätze zur Definition, Identifikation und Ausnutzung von Strukturanalogien in Datenmodellen weiterzuentwickeln.
Dieses Papier präsentiert deskriptive Evidenz zur Struktur von Ich-AG-Gründungen und Gründern aus dem Arbeitsagenturbezirk Lüneburg. Die Ergebnisse basieren auf einer Befragung aller Gründer, die zwischen Juni 2004 und Februar 2005 selbstständig geworden sind und von der Arbeitsagentur Lüneburg gefördert wurden.
In der öffentlichen Diskussion in Deutschland wird häufig die These vertreten, dass Arbeitsplätze vorwiegend in kleinen und mittleren Firmen geschaffen werden, während die großen Firmen vor allem Arbeitsplätze abbauen. Eine empirische Überprüfung für den Zeitraum 1999 bis 2005 mit Daten aller west- und ostdeutschen Betriebe, die mindestens einen sozialversicherungspflichtig Beschäftigten haben, zeigt, dass die These vom alleinigen „Jobmotor Mittelstand“ viel zu undifferenziert ist. In mittelständischen Unternehmen werden zwar überproportional viele Arbeitsplätze geschaffen, aber auch überproportional viele abgebaut. Großbetriebe mit 250 und mehr Beschäftigten weisen dagegen sowohl bei der Schaffung als auch beim Abbau von Arbeitsplätzen geringere Werte auf als es ihrem Beschäftigungsanteil entspräche. Wirtschaftspolitische Maßnahmen, die sich an der Zuordnung eines Unternehmens zu einer Größenklasse orientieren, lassen sich somit nicht mit einem besonders ausgeprägten Beitrag der Firmen aus dieser Größenklasse zum Beschäftigungswachstum rechtfertigen.