Die Suche ergab 4 Treffer
- Freitag 9. Dezember 2022, 11:22
- Forum: Allgemeine Fragen
- Thema: Key mit höchstem Value von dict pro Zeile in df
- Antworten: 2
- Zugriffe: 375
Re: Key mit höchstem Value von dict pro Zeile in df
@01010100-01000010: Die erste Frage ist warum Du Wörterbücher als Werte in einer Spalte hast. Dafür ist Pandas nicht wirklich gemacht. Die Genres sollten entweder Spalten sein, oder aber es sollte eine Tabelle sein mit drei Spalten: `book_id`, `genre`, `count`. Da würde man dann sowieso hin wollen ...
- Freitag 9. Dezember 2022, 10:40
- Forum: Allgemeine Fragen
- Thema: Key mit höchstem Value von dict pro Zeile in df
- Antworten: 2
- Zugriffe: 375
Key mit höchstem Value von dict pro Zeile in df
Hi Zusammen
Ich habe folgendes df:
book_id genres
1780947 {'fiction': 17, 'non-fiction': 9}
567795 {'romance': 88, 'non-fiction': 193}
6392654 {'fiction': 43, 'non-fiction': 5, 'fantasy': 100}
36216607 {'fiction': 17, 'poetry': 1}
21031 {'fiction': 489, 'history': 51}
Die Spalte Genre beinhaltet ...
Ich habe folgendes df:
book_id genres
1780947 {'fiction': 17, 'non-fiction': 9}
567795 {'romance': 88, 'non-fiction': 193}
6392654 {'fiction': 43, 'non-fiction': 5, 'fantasy': 100}
36216607 {'fiction': 17, 'poetry': 1}
21031 {'fiction': 489, 'history': 51}
Die Spalte Genre beinhaltet ...
- Dienstag 22. November 2022, 20:14
- Forum: Allgemeine Fragen
- Thema: isbnlib Gruppenid von gleichen Büchern erstellen
- Antworten: 2
- Zugriffe: 515
Re: isbnlib Gruppenid von gleichen Büchern erstellen
Bei Goodreads gibt es eine "work ID", die bereits die Gruppierung, die du glaube ich suchst, abbildet: https://help.goodreads.com/s/article/What-s-a-Work-ID-and-where-can-I-find-it
Bei isbntools/isbnlib musst du bedenken, dass "editions" nichts anderes macht, als API-Anfragen an LibraryThing und ...
- Dienstag 22. November 2022, 18:15
- Forum: Allgemeine Fragen
- Thema: isbnlib Gruppenid von gleichen Büchern erstellen
- Antworten: 2
- Zugriffe: 515
isbnlib Gruppenid von gleichen Büchern erstellen
Hi Zusammen
Ich probiere ein Empfehlungssystem mit dem Goodreads Dataset zu erstellen, dafèr wèrde ich gerne das komplette review dataset nutzen (16.7GB)
Da ich mit dieser grossen Datenmenge immer wieder Probleme habe suche ich nach mehreren wegen wie ich das Dataset optimieren kann.
In der Regel ...
Ich probiere ein Empfehlungssystem mit dem Goodreads Dataset zu erstellen, dafèr wèrde ich gerne das komplette review dataset nutzen (16.7GB)
Da ich mit dieser grossen Datenmenge immer wieder Probleme habe suche ich nach mehreren wegen wie ich das Dataset optimieren kann.
In der Regel ...
