Die Suche ergab 4 Treffer

von 01010100-01000010
Freitag 9. Dezember 2022, 11:22
Forum: Allgemeine Fragen
Thema: Key mit höchstem Value von dict pro Zeile in df
Antworten: 2
Zugriffe: 375

Re: Key mit höchstem Value von dict pro Zeile in df


@01010100-01000010: Die erste Frage ist warum Du Wörterbücher als Werte in einer Spalte hast. Dafür ist Pandas nicht wirklich gemacht. Die Genres sollten entweder Spalten sein, oder aber es sollte eine Tabelle sein mit drei Spalten: `book_id`, `genre`, `count`. Da würde man dann sowieso hin wollen ...
von 01010100-01000010
Freitag 9. Dezember 2022, 10:40
Forum: Allgemeine Fragen
Thema: Key mit höchstem Value von dict pro Zeile in df
Antworten: 2
Zugriffe: 375

Key mit höchstem Value von dict pro Zeile in df

Hi Zusammen

Ich habe folgendes df:

book_id genres
1780947 {'fiction': 17, 'non-fiction': 9}
567795 {'romance': 88, 'non-fiction': 193}
6392654 {'fiction': 43, 'non-fiction': 5, 'fantasy': 100}
36216607 {'fiction': 17, 'poetry': 1}
21031 {'fiction': 489, 'history': 51}

Die Spalte Genre beinhaltet ...
von 01010100-01000010
Dienstag 22. November 2022, 20:14
Forum: Allgemeine Fragen
Thema: isbnlib Gruppenid von gleichen Büchern erstellen
Antworten: 2
Zugriffe: 515

Re: isbnlib Gruppenid von gleichen Büchern erstellen


Bei Goodreads gibt es eine "work ID", die bereits die Gruppierung, die du glaube ich suchst, abbildet: https://help.goodreads.com/s/article/What-s-a-Work-ID-and-where-can-I-find-it

Bei isbntools/isbnlib musst du bedenken, dass "editions" nichts anderes macht, als API-Anfragen an LibraryThing und ...
von 01010100-01000010
Dienstag 22. November 2022, 18:15
Forum: Allgemeine Fragen
Thema: isbnlib Gruppenid von gleichen Büchern erstellen
Antworten: 2
Zugriffe: 515

isbnlib Gruppenid von gleichen Büchern erstellen

Hi Zusammen
Ich probiere ein Empfehlungssystem mit dem Goodreads Dataset zu erstellen, dafèr wèrde ich gerne das komplette review dataset nutzen (16.7GB)
Da ich mit dieser grossen Datenmenge immer wieder Probleme habe suche ich nach mehreren wegen wie ich das Dataset optimieren kann.

In der Regel ...