generischen Pillen http://vsbs.ch/cialis-kaufen.html billige Preise http://vsbs.ch/viagra-schweiz.html

Adresse und Kontakt

AG Netzbasierte Informationssysteme
FU Berlin
Königin-Luise-Straße 24-26
14195 Berlin

Tel.: +49-30-838-75221
Fax: +49-30-838-75220

This site is no longer maintained. You see a static copy as of April 1 2016.

Ablauf von Abschlussarbeiten bei NBI

Abschlussarbeiten bei NBI sind möglich indem der der/die Kandidat/in ein Thema aus den hiesigen Vorschlägen wählt oder ein eigenes Thema vorschlägt. In beiden Fällen ist es wichtig, dass die Vorkenntnisse des/der Kandidat/in für das Thema nützlich sind, der/die Kandidat/in wirkliches fachliches Interesse an dem Thema hat und das Thema für NBI interessant ist.

Es können keine neuen Abschlussarbeiten bei Prof. Tolksdorf begonnen werden.

1. Für die Anmeldung der Abschlussarbeit müssen a) ein Exposé der Arbeit und b) eine Gliederung der Arbeit mit konkreten Überschriften und einem Mengengerüst vorliegen. Gerne können wir daraus einen Projektplan für das Schreiben der Arbeit erstellen. Bitte beachten Sie, dass bei Herrn Prof. Tolksdorf ein einseitiges Exposé vorgesehen ist, während Prof. Müller-Birn mit einer eigenen Vorlage arbeitet, deren Umfang größer ist.

2. Nach Anmeldung findet eine Betreuung statt durch regelmässige Treffen mit Diskussion und Präsentation des jeweiligen Stands, dessen Abgleich mit dem Projektplan und Detailkorrektur einiger Seiten der Arbeit.

3. Gegen Ende der Arbeit muss der/Die Kandidat/in die Verantwortung für die Arbeit selber übernehmen, es gibt also weniger Betreuung. Korrekturen und Vorbewertungen des Stands der Arbeit kurz vor Abgabe sind nicht möglich.

4.Die Arbeit muss immer auch elektronisch als PDF direkt an NBI-Gutachter per Mail oder

[...Weiterlesen/more...]

Bau eines interaktiven Informationssystems am Beispiel Deutscher Lobbyverbände

Netzbasierte Informationssysteme fügen herkömmlichen Datenbanken Visualisierung, Dynamik und Interaktion hinzu. In der Arbeit soll exemplarisch ein vorhandener Datenbestand durch Informationsextraktion verarbeitbar gemacht werden, in einem Web-System möglich vielfältig visualisiert. Implizite Informationen sollen ermittelt werden sowie externe Vernetzungen zu anderen Informationsbeständen genutzt werden. Bei einer Ausrichtung als Masterarbeit wird erhöhtes Augenmerk auf die Ermittlung impliziter und zusätzliche Informationen gelegt.

Das zu erstellende Informationssystem soll sich mit den beim Deutschen Bundestag registrierten Verbände und deren Vertreter – kurz auch „Lobbyverbände“ – beschäftigen. Die dort in einem strukturierten PDF angebotenen Informationen sind entsprechend zu extrahieren und zu verarbeiten. Möglichkeiten zur Anreicherung dieser Informationen sind zu konzipieren und umzusetzen. Es gibt schon einfache Visualisierungen einzelner Facetten davon, diese sind aber nicht interaktiv. In der Arbeit soll mit Hilfe eines geeigneten Web-Frameworks zur Visualisierung gearbeitet werden um eine facettierte Exploration der Informationen zu ermöglichen. Wo möglich sollen externe Bezüge zu anderen Informationsbeständen eingebettet werden.

Art der Arbeit: Bachelorarbeit, oder mit anspruchsvollerer Informationareicherung Diplom- oder Masterarbeit

Voraussetzungen: Kenntnisse in Informationsextraktion, Visualisierung, Webtechnologien

Betreuer: Prof. Robert Tolksdorf

Weitere Informationen: Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...]

Web-Extraktion und Anreicherung kunstwissenschaftlicher Fachinformationen

In den Geisteswissenschaften beginnt die Verwendung digitaler Informationen für die Forschung in zunehmenden Maß. Ein Problem dabei ist, dass außerhalb wohlstrukturierter Archivdatenbanken Informationen oft nicht in einem Format vorliegen, die deren Weiterverarbeitung erlaubt. Ein Beispiel sind Metadaten zu den agierenden Personen am Black Mountain College, einer Ende der 1940er Jahre führenden Kunstschule. Vereinzelt lassen sich Informationen auffinden, diese liegen aber nur auf menschenlesbaren Webseiten vor.

In der Arbeit sollen die Informationsbestände des Black Mountain College Projects, insbesondere die dort gesammelten Biographien und darin enthaltene Metadaten aus dem Web extrahiert und zu einem angereicherten Datenbestand mit weiteren Quellen integriert werden. Weitere Quellen können beispielsweise über die Wikipedia oder Texte erschlossen werden. Die extrahierten Daten sollen als RDF  bereitgestellt werden, somit also als ein Netzwerk repräsentiert sein Der Datenbestand soll über einen Triplestore bereitgestellt werden.

Die Arbeit umfasst die Erstellung entsprechenden Crawler und Extraktoren sowie die Überführung der Daten in RDF in einem TripleStore.

Art der Arbeit: Bachelorarbeit

Voraussetzungen: Kenntnisse in Web Technologien, Web-Scraping, Datenbanken, RDF TripleStore

Betreuung: Prof. Robert Tolksdorf

Weitere Informationen: Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...]

Phonetische Suche in CiviCRM

CiviCRM ist ein auf die Belange von Non-Profit-Organisationen (NPO) zugeschnittenes Constituent Relationship Management (CRM) System. Es wird als Open Source Software entwickelt und ist seit 2010 von der Free Software Foundation zur Kontaktverwaltung für NPOs empfohlen. In den USA wird die Software bereits von mehreren tausend Organisationen eingesetzt. Seit 2012 arbeitet der Verein „Software für Engagierte e.V.“ an einer Deutschen Lokalisierung. Ein erstes Treffen der Berliner Community fand im Februar 2013 statt.

Phonetische Suche erlaubt einem Anwender, auch mit einer ungefähren Schreibweise eines Wortes einen Datenbanktreffer zu erzielen. Das ist vor allem für die Suche nach Eigennamen wichtig. Wenn beispielsweise ein Nutzer in der Adressdatenbank nach „Christoph Meyer“ sucht, sollen auch „Christoph Meier“ oder „Kristof Mair“ als mögliche Treffer angezeigt werden. Es funktioniert also ähnlich, wie wenn man sich beim Googlen vertippt und Google einem mit „meinten Sie: …“ antwortet. Hierzu werden Approximate String Matching-Algorithmen verwendet, auch als Fuzzy-String-Suche bezeichnet. Als Distanzmaß kann der Levenshtein-Abstand (ähnlich wie der Hamming-Abstand, aber auch für Wörter verschiedener Länge) genutzt werden, oder auch differenzierte Metriken, die sich auf die phonetische Gestalt des Wortes stützen (z.B. Kölner Phonetik, Phonet-Verfahren).

In der Arbeit soll CiviCRM (auf der Basis von Drupal) aufgesetzt werden und um die Funktion … [...Weiterlesen/more...]

Digital Openness Assessment

Öffentlicher Körperschaften wie Städte und Gemeinden leisten in steigendem Ausmaß Beiträge zu digitalen Gemeingütern wie Daten, Informationen, Wissen und Infrastruktur. Allerdings gibt es große Unterschiede, in welchen Bereichen diese Beiträge geleistet werden und wie offen der Zugang zu diesen digitalen Gemeingütern gestaltet wird. Das von den Vereinen Digitale Gesellschaft e.V. (Deutschland), „Freie Netze. Freies Wissen“ (Österreich) und Digitale Allmend (Schweiz) initiierte Projekt „Digitaler Offenheitsindex“ [do:index] versucht deshalb, Beiträge zu digitaler Offenheit sicht- und vergleichbar zu machen. Ziel ist auf Basis eines offenen Indikatorenkatalogs ein Ranking von ausgewählten, öffentlichen Gebiets­körperschaften zu erstellen sowie ein Software zur Datenvorbereitung, -erhebung (Selbst­einstufung) und -auswertung zu entwickeln.

In dieser Masterarbeit werden zwei zentrale Ziele verfolgt:

  1. Entwurf und Umsetzung eines adaptierbaren Algorithmus zur Index-Berechnung basierend auf formativen Indikatoren [1] und
  2. Konzeption und Umsetzung eines modular aufgebauten, quelloffenen Tools zur Unterstützung des systematisch-quantitativen Vergleichs digitaler Offenheit von öffentlichen Gebietskörperschaften [2].

Im ersten Schritt soll vorhandene Open Source Software im Bereich Datenerhebung, Auswertung und Darstellung identifiziert und kategorisiert werden – eine Integration in eine WordPress-Umgebung oder die Nutzung bestehender Open-Source-Survey-Anwendungen wie Survey-Monkey sollte geprüft werden. Im Rahmen des nutzerzentrierten Designprozesses [3] sollen Anforderungen und Bedürfnisse der Nutzer (vor allem des [do:index] Projektteams) erhoben werden. Es soll dabei insbesondere … [...Weiterlesen/more...]

Visualisierung von offenen Verwaltungsdaten

Auf dem fünften nationalen IT-Gipfel im Dezember 2010 vereinbarten die Teilnehmer des Gipfels aus Politik, Wissenschaft und Wirtschaft bis zum Jahr 2013 „[den] Aufbau einer zentral zugänglichen, den Interessen der Nutzer an einem einheitlichen, leichten und benutzerfreundlichen Zugriff gerecht werdenden Open-Data-Plattform“. Dieses Ziel hat längst prominente Vorbilder, insbesondere im angelsächsischen Raum (z.B. [1], [2]). In Deutschland existieren auch erste Projekte (z.B. [3]), offene Verwaltungsdaten frei und öffentlich anzubieten. Der erste Schritt ist es die Daten anzubieten, aber der nun folgende Schritt ist es, das  Verwertungspotential der Daten aufzuzeigen. Um dieses Verwertungspotential zu evaluieren, wurde unter anderem die Initiative Apps4Deuschland [4] ins Leben gerufen, die bereits im ersten Durchgang interessante Ergebnisse lieferte.

In dieser Bachelorarbeit sollen Kriterien aus bestehenden formalen Spezifikationen für Grafiken (Bertin’s Semiologie von Graphiken, Mackinlay’s APT System, Polari) analysiert und daraufhin untersucht werden, inwieweit sie für den vorliegenden Anwendungsbereich geeignet sind. Das übergeordnete Ziel soll es sein, den Nutzer bei dem Prozess der Datenanalyse visuell zu unterstützen. Es sollen dazu Daten, aus unterschiedlichen Datenquellen verknüpft werden. Das Ergebnis der Verknüpfung und die darauf aufbauende Visualisierung soll auch anderen Nutzern zur Verfügung gestellt werden. Die theoretischen erarbeiteten Kriterien sollen  auf vorhandene Webtechnologien übertragen (was ist überhaupt möglich?) und danach innerhalb … [...Weiterlesen/more...]

Einsatz des MapReduce Frameworks zur nebenläufigen Berechnung von Netzwerkanalysemetriken

Webapplikationen wie Twitter, Google, Facebook und Wikipedia ermöglichen, dass riesige Datenmengen analysiert werden können, um Entitäten wie Personen, Inhalte und deren Interaktionen zu untersuchen. Zur Analyse dieser digitalen Spuren finden vor allem Prinzipien aus dem Bereich der Parallelen Programmierung Anwendung. In dieser Bachelorarbeit soll das MapReduce Software-Framework bzw. deren Open Source Implementierung Hadoop eingesetzt werden, um eine Webapplikation aufzubauen, die für die Analyse von komplexen Netzwerken genutzt werden kann.

Innerhalb der wissenschaftlichen Analyse von Datensätzen ist es notwendig, eine bestehende, häufig komplexe Fragestellung in Teilanalyseschritte zu zerlegen. Gerade bei großen Netzwerken kann die Berechnung von Metriken viel Zeit in Anspruch nehmen, daher soll in dieser Bachelorarbeit, der Nutzer bei der Analyse von großen Netzwerken unterstützt werden. Durch den Aufbau einer Webapplikation soll der analytische Prozess in Teilschritte zerlegt werden. Als Input sollen grundsätzlich alle Daten dienen, die in einem bestimmten Format (z.B. graphml, csv) vorliegen. (*) Mit Hilfe der Webapplikation soll eine Analyse der Daten in einzelnen, durch den Nutzer definierten Schritten möglich sein. In jedem Teilschritt soll bestimmt werden, ob und wie das Ergebnis weiterbearbeitet wird. So kann eine einzelne Berechnung bereits das finale Ergebnis darstellen oder aber als Input für einen weiteren Analyseschritt genutzt werden. Die Berechnung der … [...Weiterlesen/more...]

User Engagement in Open Data Anwendungen

Open Government Data sind frei verfügbare Verwaltungsdaten des öffentlichen Sektors, die im Interesse der Allgemeinheit stehen. Derzeit existieren vielfältige Bestrebungen, öffentliche Daten dem Bürger, Unternehmen aber auch anderen Verwaltungen einfacher verfügbar zu machen. Der Schwerpunkt liegt dabei auf der Standardisierung des Datenformats und der einfachen Bereitstellung der Daten. Es gibt mittlerweile eine Vielzahl von solchen Angeboten in Form von Datenkatalogen (z.B. Offene Daten Berlin). Dabei werden potentielle Nutzer als reine Datenkonsumenten verstanden. Sie verarbeiten diese Daten, um beispielsweise mit Webanwendungen oder mobilen Anwendungen einen Mehrwert zu erzeugen. Das Nutzer auch potentieller Wissensträger wird vernachlässigt. Das vorhandene Wissen kann aber zur Verbesserung der offenen Daten z.B. in Form der Prüfung der Aktualität, der Anreicherung der Daten basierend auf Erfahrungswerten, der Ergänzung von geographischen Information genutzt werden. Eine zentrale Frage lautet: Wie können Nutzer gewonnen werden, um vorhandene offene Daten mit ihrem Wissen zu ergänzen. Welche Funktionen sind dabei erfolgversprechend?

In dieser Arbeit geht es darum in einen bestehenden Datenkatalog oder in eine eigene, prototypisch umgesetzte Open-Data-Anwendung Funktionen einzubringen, die den Nutzern erlauben, vorhandene offene Daten, um ihr eigenes, vorhandenes Wissen zu ergänzen und diese angereicherten Daten dann wieder der Allgemeinheit zur Verfügung zu stellen. Anhand von Nutzerstudien sollen implementierte Funktionen bewertet werden.

 

Literaturempfehlungen: [...Weiterlesen/more...]

Die zunehmende Automatisierung von Aufgaben in gemeinschaftlich erstellten Online-Enzyklopädie

Peer Production hat als offene, kollektive Form der Zusammenarbeit mittlerweile zu umfassenden Informationssammlungen von nutzergenierten Inhalten geführt. Ein bekanntes Beispiel ist die Wikipedia, eine gemeinschaftlich erstellte Online Enzyklopädie. Geographisch verteilte Personen koordinieren ihre Aktivitäten bei der Erstellung der Artikel transparent und nachvollziehbar sind. Zunehmend finden bei dem Prozess der Artikelerstellung, der Artikelpflege, aber auch der Artikeladministration Bots Verwendung. Es handelt sich dabei um Software, welche algorithmisch definierte Aufgaben übernehmen. Die Zahl der aktiven Bots in der Wikipedia liegt mittlerweile bei über 200 und über 15 Prozent aller Edits ist bereits auf sie zurückzuführen (Geiger and Ribes, 2010).

Die Aufgabe in dieser Bachelorarbeit ist es, die Arbeit von Bots in der Wikipedia zu untersuchen. Zunächst muss dazu ermittelt werden, nach welchen Regeln Bots in der Wikipedia eingesetzt werden dürfen und Dabei soll untersucht werden, welche Aufgaben, in welchen Namensräumen Bots in der Wikipedia erfüllen. Können die unterschiedlichen Aufgaben in Aufgabenbereiche zusammengefasst werden? Welche Personen haben diese Programme erstellt und wie regelmäßig werden sie eingesetzt? In welchen Programmiersprachen wurden zur Entwicklung genutzt? Wie komplex sind diese Programme? Haben sich die Aufgaben dieser Programme im Zeitverlauf geändert? Ale gesammelten Daten sollen in einer Datenbank ablegt werden. Nach einer allgemeinen Analyse sollen vor allem … [...Weiterlesen/more...]

Analyse von Ereignisdaten zur Bewertung von Nutzerbeiträgen und deren Einfluss auf die Qualität des gemeinschaftlich erstellten, digitalen Produkts

Peer Production, als offene und kollektive Form der Zusammenarbeit, hat im letzten Jahrzehnt an Bedeutung gewonnen. Beispiele dafür sind unter anderem Wikipedia, als gemeinschaftlich erstellte Online Enzyklopädie, sowie YouTube.com oder Del.icio.us als umfassende Informationssammlungen mit nutzergenerierten Inhalten. Dabei koordinieren geographisch verteilte Personen ihre Aktivitäten durch den Einsatz von Informations- und Kommunikationssystemen. Diese digitalen Archive ermöglichen wiederum, dass die dabei entstehenden Ereignisdaten transparent und nachvollziehbar sind. Das teilweise nur implizite Ziel dieser Zusammenarbeit ist die Erstellung eines digitalen Produkts.

Die Aufgabe in dieser Master- bzw. Diplomarbeit ist es zu untersuchen, wie die offene Gemeinschaft sich bezüglich der unterschiedlich anfallenden Aufgaben zur Produkterstellung koordiniert. Als Anwendungsfall soll dabei die Wikipedia dienen. Nach einem umfassenden Literaturstudium, sollen in der Arbeit vorhandene Aktivitäten, die während des Lebenszyklus eines Artikels erfolgen, identifiziert werden. Als Entwicklungszyklus wird der Entwicklungsstand eines Artikels in Bezug auf das Qualitätsbewertungssystem der Wikipedia-Community definiert. Das Ziel ist es zu untersuchen, ob Unterschiede bei den Aktivitätstypen und dem Aktivitätsumfang in Abhängigkeit von der qualitativen Bewertung des Artikels bestehen. Aufbauend auf den Ergebnissen soll ein Empfehlungssystem entworfen werden, das diese Daten nutzt, um einerseits Nutzer die in der Vergangenheit bestimmte Aktivitäten ausgeführt haben, Artikel zu empfehlen, bei denen diese Aktivitäten noch nicht … [...Weiterlesen/more...]

AG Netzbasierte Informationssysteme, http://www.ag-nbi.de
Königin-Luise-Straße 24-26, 14195 Berlin, Tel.: +49-30-838-75221, Fax: +49-30-838-75220