Seite 1 von 3

Verfasst: Montag 24. März 2008, 19:43
von Kai Borrmann
Blackjack,

das Schließen der Dateien werde ich nach Möglichkeit beherzigen und dein Beispiel habe ich erfolgreich getestet.

Das Stichwort "Histogramm" ist sicher für die Map sehr wichtig.

Untenstehend noch ein paar Zählungen, um mal zu zeigen, was
man alles so machen kann.






>>> sequenz = open("C:\Koran Umschrift.txt","r").read()
>>> len(sequenz)
745103 # Die Koran-Datei, inclusive Leerzeichen, hat eine Länge von 745,103 Zeichen
>>> text = sequenz.split()
>>> len(text)
78464 # Unterteilt man den Text an den Leerzeichen, dann erhält man 78,464 Wörter.
Nach anderen Berechnungen sind dies 78,679 Wörter: http://www.mghamdi.com/AD.pdf

>>> len(set(text))
17648 # Die mehrmals vorkommenden Wörter lassen sich auf 17,648 Token reduzieren
>>> 745103/78464
9
>>> 78464/17648
4 # Durchschnittlich besteht ein Wort aus 9 Zeichen + Leerzeichen und kommt 4 * vor.
Diese beiden Werte sind auf ganze Zahlen auf/abgerundet.

>>> Menge = set(text)

>>> print Menge, # Die (zufällig geordnete) Menge der Token beginnt dann so:

set(['wa-rasuul-un', 'xalq-u', 'sa&y-a-hu', 'tusiim-uuna', 'baddala', 'wa-ta(th)biit-an', '(sh)ajar-in', "wa-saa'at", 'wa-Hamalnaa-hum', 'wa-rasuul-u-hu',.......])

Verfasst: Dienstag 25. März 2008, 15:38
von Kai Borrmann
Durch "regular expressions" kann man vom konkreten Wort
abstrahieren und nach bestimmten Wortformen suchen.

Möchte man alle Worte der Form "fa'ala" finden, dann
ist dies eine Folge von Konsonanten, also nicht "^" a, i oder u
(andere kennt das Arabische nicht) und eben den Vokalen.


import re

from nltk_lite.utilities import re_show

text = open("C:\Koran Umschrift.txt","r").read()

re_show("[^aiu][a][^aiu][a][^aiu][a]",text)


suurat-u
l-{baqara}t-i

Verfasst: Dienstag 25. März 2008, 15:46
von Leonidas
Kai Borrmann hat geschrieben:Durch "regular expressions" kann man vom konkreten Wort
abstrahieren und nach bestimmten Wortformen suchen.
Bei Regular-Expressions ist es Sinnvoll, die Strings als Raw-Strings zu markieren, also ein ``r`` vor die Quotes zu setzen, damit man die Backslashes in den Regulären Ausdrücken vorkommen können, nicht mehrfach escapen muss.

Verfasst: Mittwoch 26. März 2008, 11:18
von Kai Borrmann
Der automatisierten morphologischen Analyse des Korans gelingt es bisher,

ca. 70 % aller Worte eindeutig einzuordnen.

http://cs.haifa.ac.il/~shuly/publications/quran.pdf



>>> sequenz = open("C:\Koran mit Dubletten.txt","r").read()
>>> text = sequenz.split()
>>> len(text)
99004
>>> 99004-78464
20540


20,540 Fälle müßten also "von Hand" ausgewählt werden.

Verfasst: Samstag 29. März 2008, 12:24
von Kai Borrmann
Setzt man in der Kommandozeile eine Zuordnung zwischen der lateinischen Buchstabenfolge „Allah“
und deren Äquivalent im Unicodesystem, so läßt sich damit im Folgenden operieren:

>>> Allah = u" \uFDF2 "
>>> print Allah

Verfasst: Samstag 29. März 2008, 20:35
von Kai Borrmann
Die oben dargestellte Möglichkeit, Wörter abzuzählen, läßt sich durch die Bedingung if len(word) auf bestimmte Wortlängen einschränken.

for word, count in sorted(histogram.iteritems()):
if len(word) == 3:
print count, word,
print

Es folgt die Auflistung aller Wörter, die drei Zeichen lang sind:

153 &an 110 'am 519 'an 264 'aw 1 'ii 1 'il 344 'in 2 'ti 113 bal 2 bni 6 d&u 1184 fii 2 haa 4 hab 66 hal 180 hum 12 kam 4 kay 8 kun 813 laa 163 lam 59 lan 77 law 1011 maa 368 man 1672 min 120 qad 263 qul 1 qum 1 quu 1 sal 1 tlu 349 yaa 1 zid

Oder wir wollen wissen, wie oft Moses genannt wird:

if word.endswith("usaa"):

1 bi-muusaa 1 li-muusaa 129 muusaa 5 wa-muusaa

Oder Muhammad:

if word.startswith("muHammad"):

2 muHammad-in 3 muHammad-un

Verfasst: Montag 31. März 2008, 13:49
von Kai Borrmann
Nach einigen Umwegen der Bearbeitung folgt hier die geordnete Menge ("sorted set") der in der Ausgangsdatei "qurout.txt" als Eigennamen "ProperName" gekennzeichneten Wörter.

Es ist zu beachten, daß diese Liste einige Fehler enthält: Der Brokat, "istabraq", etwa kann im Koran kein Eigenname sein.

['&aad', '&adn', '&arafaat', '&arim', '&iisaa', '&imraan', '&uzayr', '&uzzaa', "'aHmad", "'aadam", "'aan", "'aazar", "'ayy", "'ayy-i", "'ayyat", "'ayyuub", "'ibliis", "'ibraahiim", "'idriis", "'ilyaas", "'injiil", "'injiil", "'iram", "'isHaaq", "'ismaa&iil", "'israa'iil", "'istabraq", "'uff", '(sh)u&ayb', '(th)amuud', 'Hunayn', 'Safaa', 'Taaguut', 'Taaluut', 'baabil', 'badr', 'bakkat', 'daawuud', 'fir&awn', 'firdaws', 'haamaan', 'haaruun', 'haaruut', 'huud', 'jaaluut', 'jahannam', 'jibriil', 'juudiyy', "l-'aykat",, 'l-laat', 'l-yasa&', 'laZaa', 'llaah', 'luqmaan', 'luuT', "ma'juuj", 'maaruut', 'madyan', 'makkat', 'manaat', 'marwat', 'maryam', 'miSr', 'miikaal', 'muHammad', 'muusaa', 'nuuH', 'qaaruun', 'quray(sh)', 'ramaDan', 'ruum', "saba'", 'saqar', "saynaa'", 'siiniin', 'sulaymaan', 'tawraat', 'tubba&', 'ya&quub', 'ya&uuq', "ya'juuj", 'ya(th)rib', 'yaHyaa', 'yaasiin', 'yaguu(th)', 'yuunus', 'yuusuf', 'zakariyyaa', 'zayd']

Verfasst: Mittwoch 2. April 2008, 10:14
von Kai Borrmann
Ein Beispiel für die Darstellung des Partikels "kallaa" durch eine KWIC "Key Word in Context" Analyse.

text = open("C:\Koran Umschrift.txt","r").read().split()

kwicdict = {}

ngrams = [text[i:i+6] for i in range(len(text)-5)]

for n in ngrams:
if n[2] not in kwicdict:
kwicdict[n[2]] = [n]
else:
kwicdict[n[2]].append(n)

for n in kwicdict['kallaa']:
outstring = ' '.join(n[:2]).rjust(20)
outstring += str(n[2]).center(len(n[2])+6)
outstring += ' '.join(n[3:])
print outstring

Verfasst: Mittwoch 2. April 2008, 15:37
von mkesper
Python-Code bitte

Code: Alles auswählen

in Tags setzen
, dann wird er lesbarer. :)

Verfasst: Donnerstag 3. April 2008, 19:12
von Kai Borrmann
Mal ein Beispiel für eine KWIC-Analyse:

Der Kontext der ersten fünf Surennamen

&alay-him wa-laa l-Daall-iina suurat-u l-baqarat-i
&alaa l-qawm-i l-kaafir-iina suurat-u 'aal-i
llaah-a la&alla-kum tufliH-uuna suurat-u l-nisaa'-i
bi-kull-i (sh)ay'-in &aliim-un suurat-u l-maa'idat-i
kull-i (sh)ay'-in qadiir-un suurat-u l-'an&aam-i
wa-'inna-hu la-gafuur-un raHiim-un suurat-u l-'a&raaf-i
wa-yusabbiH-uuna-hu wa-la-hu yasjud-uuna suurat-u l-'anfaal-i

Verfasst: Donnerstag 3. April 2008, 19:35
von EyDu
Nur mal der Interesse halber: Der selbe Kai Borrmann dieses FAZ Artikels?

Verfasst: Donnerstag 3. April 2008, 20:03
von Kai Borrmann
EyDu hat geschrieben:Nur mal der Interesse halber: Der selbe Kai Borrmann dieses FAZ Artikels?
Ja, dieser Artikel der TAZ (nicht FAZ) erwähnt auch mich. Es ging seinerzeit aber nicht um Python. :)

Verfasst: Dienstag 8. April 2008, 09:29
von Kai Borrmann
Mit dem folgenden Beispiel kann man eine Grafik erzeugen,
die erkennbar macht, daß die Suren des Koran nicht, wie oft
zu lesen, nach absteigender Länge sortiert sind.

Dies stimmt generell, aber nicht durchweg; manchmal folgen
längere auf kürzere.


Code: Alles auswählen


from Tkinter import *
root = Tk()

sequenz  = open("C:\Koran Umschrift.txt","r").read()
text = sequenz.split()
text

words = ["suurat-u"]

from Tkinter import Canvas

w = Canvas(width=800,height=100*len(words))
text = list(text)
scale = float(800)/len(text)
position = 0
for word in text: 
  for i in range(len(words)):
      x  = position * scale 
      if word == words[i]:
        y = i * 100
        w.create_line(x,y,x, y+100-1)
  position += 1
  
w.pack()
mainloop()

Verfasst: Samstag 12. April 2008, 11:13
von Kai Borrmann
Hier ist ein erster Versuch der Visualisierung zu finden:

http://user.baden-online.de/~pjanssen/t ... index.html

Verfasst: Freitag 9. Mai 2008, 15:46
von Kai Borrmann
Über den ISO-Standard zur Topic Map haben wir uns noch keine verschärften Gedanken gemacht.

"Topic map" ist zunächst mal ein Bezugsrahmen, über den auf dem folgenden, für dieses Projekt gegründeten, Blog auch diskutiert werden kann:

http://www.raunaq.info-a.googlepages.com/

Über Besucher freuen wir uns!

Verfasst: Montag 12. Mai 2008, 16:04
von Kai Borrmann
Der Korantext liegt nun in einer Datei vor, in welcher jedem Satz die Nummer der Sure und der Ayat, also von Kapitel und Vers, vorangestellt ist. Ein Ausschnitt:

  • [71:1] #.)inn%-a #.)arsaln%-a n%-u%..han #.)il%-a qawmih%-i #.)an #.)an%--dir qawmaka min qabli #.)an ya#.)tiyahum #.(a%--d%-abun #.)al%-im
    [71:2] q%-ala y%-a-qawmi #.)inn%-i lakum na%--d%-irun mub%-in
    [71:3] #.)ani #.(bud%-u ll%-aha wa-ttaq%-uhu wa-#.)a%..t%-i#.(%-un
    [71:4] ya%.gfir lakum min %--dun%-ubikum wa-yu#.)a%))h%))hirkum #.)il%-a #.)a%>galin musamman #.)inna #.)a%>gala ll%-ahi #.)i%--d%-a %>g%-a#.)a l%-a yu#.)a%))h%))haru law kuntum ta#.(lam%-un
    [71:5] q%-ala rabbi #.)inn%-i da#.(awtu qawm%-i laylan wa-nah%-ara
    [71:6] fa-lam yazidhum du#.(%-a#.)%-i #.)ill%-a fir%-ara
    [71:7] wa-#.)inn%-i kullam%-a da#.(awtuhum li-ta%.gfira lahum %>ga#.(al%-u #.)a%..s%-abi#.(ahum f%-i #.)%-a%--d%-anihim wa-sta%.g\'9aaw %--tiy%-abahum wa-#.)a%..sarr%-u wa-stakbar%-u stikb%-ara
    [71:8] %--tumma #.)inn%-i da#.(awtuhum %>gih%-ara
    [71:9] %--tumma #.)inn%-i #.)a#.(lantu lahum wa-#.)asrartu lahum #.)isr%-ara
Im Ganzen sind das einige tausend Sätze.

Gibt es irgendwo eine Möglichkeit, diese nach ihrer Ähnlichkeit zu sortieren? Hat jemand vielleicht eine Idee?

Verfasst: Montag 12. Mai 2008, 19:26
von Leonidas
Je nachdem wie du Ähnlichkeit definierst, kannst du versuchen es etwa mittels Levensthein-Distanz zu ermitteln.

Verfasst: Mittwoch 14. Mai 2008, 23:28
von Kai Borrmann
Auf der folgenden Seite habe ich mal die Ausgangsüberlegungen und einige der bisherigen Ergebnisse zusammengebracht:

http://www.raunaq.info-a.googlepages.co ... ernet.html

Mein Dank an alle, die dabei geholfen haben!

Verfasst: Donnerstag 15. Mai 2008, 00:14
von audax
*duck*

Die Einrückung des Python-Code stimmt nicht :D

Verfasst: Donnerstag 12. Juni 2008, 19:57
von Kai Borrmann
Die Sache ist jetzt weiter gediehen.

Mit "Surfin' the Qur'an" lassen sich eine englische Übersetzung

und eine Transkription miteinander vergleichen. Viel Spaß!

http://qibla.appspot.com/