Die Suche ergab 36 Treffer
- Dienstag 25. Februar 2020, 15:31
- Forum: Allgemeine Fragen
- Thema: Google Colab - Outputs von verschiedenen Notebooks kopieren?
- Antworten: 7
- Zugriffe: 2049
Re: Google Colab - Outputs von verschiedenen Notebooks kopieren?
Der Code funktioniert auch in dem Notebook, in welchem ich nicht speichern kann. Ich suche nach einer Möglichkeit, diese Zelle, d.h. den Code innerhalb dieser Zelle und den ausgegebenen Output nach ausführen des Codes, in eine Zelle in einem anderen Notebook hineinzukopieren. Das Problem mit dem Run...
- Montag 24. Februar 2020, 00:37
- Forum: Allgemeine Fragen
- Thema: Google Colab - Outputs von verschiedenen Notebooks kopieren?
- Antworten: 7
- Zugriffe: 2049
Re: Google Colab - Outputs von verschiedenen Notebooks kopieren?
Das Problem ist, dass ich plötzlich mein Notebook in Google Colab nicht mehr speichern konnte. Das Resultat war, dass alle meine letzten Ausgaben nicht gespeichert wurden. Mein vermutlich ziemlich umständlich Weg war, dass ich den gesamten Code per Copy and Paste in ein anderes Notebook übertragen h...
- Samstag 22. Februar 2020, 21:19
- Forum: Allgemeine Fragen
- Thema: Google Colab - Outputs von verschiedenen Notebooks kopieren?
- Antworten: 7
- Zugriffe: 2049
Google Colab - Outputs von verschiedenen Notebooks kopieren?
Hallo,
ich habe mehrere Notebooks in Google Colab deren Outputs ich gerne zusammenkopieren würde.
Damit meine ich, gibt es eine Möglichkeit eine komplette Zelle incl. deren Ausgabe zu kopieren
und in ein anderes Notebook einzufügen?
Vielen Dank
ich habe mehrere Notebooks in Google Colab deren Outputs ich gerne zusammenkopieren würde.
Damit meine ich, gibt es eine Möglichkeit eine komplette Zelle incl. deren Ausgabe zu kopieren
und in ein anderes Notebook einzufügen?
Vielen Dank
- Mittwoch 12. Februar 2020, 21:50
- Forum: Allgemeine Fragen
- Thema: Google Colab - Speichermangel
- Antworten: 1
- Zugriffe: 696
Google Colab - Speichermangel
Hallo, immer wieder wenn ich versuche mein Notebook nach einem run in Google Colab in Google Drive zu speichern erhalte ich die Meldung "Speichermangel" mit dem Hinweis das Opera nicht genügend Arbeitsspeicher hat. Alle zwischenzeitlichen Änderungen in meinem Notebook werden danach immer r...
- Montag 2. Dezember 2019, 17:04
- Forum: Allgemeine Fragen
- Thema: NameError: name 'np' is not defined
- Antworten: 1
- Zugriffe: 1598
NameError: name 'np' is not defined
Hallo, ich möchte gerne die Funktionen import numpy as np def load_labels(path_train): y_label = np.load(path_train) return y_label def print_sentence(): print("Hallo angekommen") des Jupyter Notebooks "save_load" in ein anderes Jupyter Notebook mit folgenden Code importieren !pi...
- Freitag 29. November 2019, 13:39
- Forum: Allgemeine Fragen
- Thema: Kombinieren von GridSearchCV mit EarlyStopping?
- Antworten: 2
- Zugriffe: 826
Re: Kombinieren von GridSearchCV mit EarlyStopping?
ok, vielen Dank. Das würde dann in etwa heißen, man könnte zwar neben den anderen Hyperparameter auch für die Epochenanzahl ein Suchraster in GridSearchCV festlegen, jedoch würde dieses Epochenanzahl-Suchraster lediglich dazu dienen optimale Werte für die restlichen Hyperparameter zu finden, während...
- Freitag 29. November 2019, 02:21
- Forum: Allgemeine Fragen
- Thema: Kombinieren von GridSearchCV mit EarlyStopping?
- Antworten: 2
- Zugriffe: 826
Kombinieren von GridSearchCV mit EarlyStopping?
Hallo, ich möchte optimale Hyperparameter (Lernrate, Anzahl an Epochen, Dropout-rate) eines Neuronales Netzes mithilfe von GridSearchCV bestimmen. def create_model (learn_rate=0.01, dropout_rate=0.5): model = Sequential() model.add(Dense(512, activation='relu)) model.add(Dropout(dropout_rate)) model...
- Sonntag 13. Oktober 2019, 15:35
- Forum: Allgemeine Fragen
- Thema: Korrekte Verwendung des StandardScaler bei GridSearchCV
- Antworten: 0
- Zugriffe: 1342
Korrekte Verwendung des StandardScaler bei GridSearchCV
Hallo, ich muß die Hyperparameter einer LinearSVC mithilfe von GridSearchCV optimieren. Erstaunlicherweise ist die Accuracy des besten gefundenen Modells aus GridSearchCV (clf.best_score_) mit 0.6991, wesentlich niedriger als die Accuracy welche beim Training der LinearSVC mit dem vollen Trainingsda...
- Montag 7. Oktober 2019, 17:46
- Forum: Allgemeine Fragen
- Thema: HOG-Features skalieren bevor Training mit SVM?
- Antworten: 2
- Zugriffe: 510
Re: HOG-Features skalieren bevor Training mit SVM?
Vielen Dank für den Hinweis.
Ich habe nun die Ergebnisse beim Training mit skalierten und ohne skalierten HOG-Features
verglichen und festgestellt, dass die Testgenauigkeit ohne vorherige Anwendung des StandardScalers wesentlich höher ist.
Ich habe nun die Ergebnisse beim Training mit skalierten und ohne skalierten HOG-Features
verglichen und festgestellt, dass die Testgenauigkeit ohne vorherige Anwendung des StandardScalers wesentlich höher ist.
- Montag 7. Oktober 2019, 14:21
- Forum: Allgemeine Fragen
- Thema: HOG-Features skalieren bevor Training mit SVM?
- Antworten: 2
- Zugriffe: 510
HOG-Features skalieren bevor Training mit SVM?
Hallo, ich möchte eine SVM mit aus Bildern extrahierten HOG-Features trainieren. Der Code zur Bestimmung der HOG-Features lautet wie folgt: from skimage import feature def get_hog_features(X): hog_list = [] for i in range(0, len(X)): feat = hog(X[i], orientations=9, pixels_per_cell=(8,8), cells_per_...
- Donnerstag 5. September 2019, 13:20
- Forum: Allgemeine Fragen
- Thema: Zufällige, stratifizierte Teilmengenbildung mithilfe von train_test_split
- Antworten: 3
- Zugriffe: 715
Re: Zufällige, stratifizierte Teilmengenbildung mithilfe von train_test_split
Vielen Dank für den Link. Machst du das nur für dich zum Spaß oder steckt ein tieferer Sinn dahinter? Denn ehrlich, ich sehe da keinen. Je mehr Daten desto besser die Ergebnisse. Neuronale Netze sind ja erst seit dem es Daten ohne Ende gibt so erfolgreich geworden. Ich bin kein Mathematiker und Stat...
- Donnerstag 5. September 2019, 08:21
- Forum: Allgemeine Fragen
- Thema: Zufällige, stratifizierte Teilmengenbildung mithilfe von train_test_split
- Antworten: 3
- Zugriffe: 715
Re: Zufällige, stratifizierte Teilmengenbildung mithilfe von train_test_split
PS. Es handelt sich um einen Datensatz mit Bildern, wie z.B. dem MNIST-Datensatz.
- Mittwoch 4. September 2019, 18:18
- Forum: Allgemeine Fragen
- Thema: Zufällige, stratifizierte Teilmengenbildung mithilfe von train_test_split
- Antworten: 3
- Zugriffe: 715
Zufällige, stratifizierte Teilmengenbildung mithilfe von train_test_split
Hallo, ich möchte einen Datensatz derart in Teilmengen zufällig unterteilen, sodass diese vom kompletten Datensatz ausgehend eine absteigende Größe aufweisen. Die jeweils kleineren Teilmengen sollen in den größeren Teilmengen jeweils enthalten sein. In anderen Worten: vom kompletten Datensatz ausgeh...
- Sonntag 1. September 2019, 12:36
- Forum: Allgemeine Fragen
- Thema: CNN optimieren - Problem: StratifiedKFold basiert auf Label von Zielvariable y und akzeptiert keine one-hot Codierung
- Antworten: 2
- Zugriffe: 587
Re: CNN optimieren - Problem: StratifiedKFold basiert auf Label von Zielvariable y und akzeptiert keine one-hot Codierun
Vielen Dank.
Habe Integer für das Target anstatt One-Hot verwendet und für die loss-Funktion sparse_categorical_crossentropy anstatt categorical_crossentropy
verwendet und es funktioniert.
Habe Integer für das Target anstatt One-Hot verwendet und für die loss-Funktion sparse_categorical_crossentropy anstatt categorical_crossentropy
verwendet und es funktioniert.
- Freitag 30. August 2019, 18:44
- Forum: Allgemeine Fragen
- Thema: CNN optimieren - Problem: StratifiedKFold basiert auf Label von Zielvariable y und akzeptiert keine one-hot Codierung
- Antworten: 2
- Zugriffe: 587
CNN optimieren - Problem: StratifiedKFold basiert auf Label von Zielvariable y und akzeptiert keine one-hot Codierung
Hallo, Ich versuche verschiedene Hyperparameter einer CNN mithilfe RandomizedSearchCV zu optimieren. Da der Datensatz unbalanciert ist, verwende ich StratifiedKFold anstatt KFold, damit auch in den Folds die ursprüngliche Klassenverteilung beibehalten wird. from sklearn.model_selection import Strati...
- Samstag 29. Juni 2019, 20:58
- Forum: Wissenschaftliches Rechnen
- Thema: Trainingszeit einer SVM berechnen
- Antworten: 1
- Zugriffe: 683
Trainingszeit einer SVM berechnen
Hallo, ich trainiere eine SVM und möchte die Trainingszeit berechnen. Bisher habe ich folgenden Code: import time svc = SVC(kernel='linear') start = time.process_time() svc.fit(X_train_500.reshape(-1,784), y_train_500) print("training time: ", round((time.process_time()-start), 3), "s...
- Dienstag 7. Mai 2019, 21:59
- Forum: Allgemeine Fragen
- Thema: GridSearchCV: Wann StandardScaler notwendig?
- Antworten: 4
- Zugriffe: 1028
Re: GridSearchCV: Wann StandardScaler notwendig?
Das würde dann bedeutet, nur wenn die Daten nicht schon bereits normalisiert wurden (sowie in meinen 1. Code), dann sollte man bei GridSearch einen StandardScaler verwenden.
- Dienstag 7. Mai 2019, 21:45
- Forum: Allgemeine Fragen
- Thema: GridSearchCV: Wann StandardScaler notwendig?
- Antworten: 4
- Zugriffe: 1028
GridSearchCV: Wann StandardScaler notwendig?
Hallo, ich versuche die optimalen Hyperparameter für eine SVM per GridSearch zu finden. Der Datensätz wäre FashionMNIST. Wenn ich einfach nur eine SVM trainiere, dann normalisiere ich die Daten zuvor wie z.B. in folgendem Code: from keras.datasets import fashion_mnist import numpy as np from sklearn...
- Dienstag 26. Februar 2019, 16:21
- Forum: Allgemeine Fragen
- Thema: SyntaxError bei LabelEncoder
- Antworten: 2
- Zugriffe: 687
Re: SyntaxError bei LabelEncoder
oh ja, Danke.
- Dienstag 26. Februar 2019, 16:09
- Forum: Allgemeine Fragen
- Thema: SyntaxError bei LabelEncoder
- Antworten: 2
- Zugriffe: 687
SyntaxError bei LabelEncoder
Hallo, ich bekomme für folgende Zeile immer einen SyntaxError le = LabelEncoder() Hat jemand eine Idee woran das liegen könnte? Ich verwende Python 3.5 . Anbei noch den kompletten Code # import the necessary packages from sklearn.preprocessing import LabelEncoder from sklearn.svm import LinearSVC fr...