Die Suche ergab 5 Treffer

von BUXHO
Mittwoch 13. Oktober 2010, 14:53
Forum: Allgemeine Fragen
Thema: Finite State Transducer
Antworten: 5
Zugriffe: 1018

Re: Finite State Transducer

erstmal Danke für die Geduld mit mir :oops: , weil ich ja kein Profi bin..., muss aber das machen...
Aber ohne Hilfe kann ich leider gar nichts machen.
Entschuldigt mir die Naiven Fragen (wenn ich welche stelle).

[quote="BlackJack"] def main():
transitions = [
(0, 'a', 'x', 2),
(0, 'a', 'a', 1 ...
von BUXHO
Montag 11. Oktober 2010, 13:25
Forum: Allgemeine Fragen
Thema: Finite State Transducer
Antworten: 5
Zugriffe: 1018

Re: Finite State Transducer

Ein endlicher Transduktor ist einfach nur ein etwas modifizierter endlicher Automat.
Einfach?
Wie fängt man an? - um eine Vorstellung zu haben.

Ich sehe nicht so ganz was `Stamm1` und `SuffixeStamm1` sein sollen!? Du scheinst da schon eine konkrete Anwendung für einen Transduktor im Sinn zu ...
von BUXHO
Montag 11. Oktober 2010, 11:49
Forum: Allgemeine Fragen
Thema: Finite State Transducer
Antworten: 5
Zugriffe: 1018

Finite State Transducer

Hallo Leute,
ich würde mal gerne wissen wie man ein Finite State Transducer in Python programmieren kann.
Die vorhandene Daten z.B.:
Stamm1 : 'an'
SuffixeStamm1 : ['ua', 'oi', 'oin', 'oit', 'onj', 'onjsh', 'onjve', 'onjt'].

Im Internet habe einiges an Theorie gelesen (alles Theorie), aber das ganze ...
von BUXHO
Montag 25. Mai 2009, 00:35
Forum: Allgemeine Fragen
Thema: TOKENIZER
Antworten: 5
Zugriffe: 1171

...Oder suchst du einfach

import re
s = u"Preußen besiegte Österreich in Leuthen."
print re.findall("(?u)\w+|[.,!?]", s)
Stefan

Hi, dieser re Ausdruck ist super. (ich kann es noch nicht so gut... :) )
Man bekommt: [u'Preu\xdfen', u'besiegte', u'\xd6sterreich', u'in', u'Leuthen', u'.']

Die ...
von BUXHO
Samstag 23. Mai 2009, 07:19
Forum: Allgemeine Fragen
Thema: TOKENIZER
Antworten: 5
Zugriffe: 1171

TOKENIZER

Hallo,

ich hoffe, dass mir jemand, der mit Korpora arbeitet helfen kann.

habe ein Text (roman) und möchte den annotieren mit POS-Tags.
Ich brauche einen Tokenizer .
Dafür habe ich einen Sentence Splitter programmiert (nicht so gut, aber es läuft).
Jetzt soll (jeder) der Satz in Token zerlegt ...