Die Suche ergab 92 Treffer
- Montag 16. Januar 2023, 00:25
- Forum: Allgemeine Fragen
- Thema: Zusammenführen von dataframes
- Antworten: 0
- Zugriffe: 644
Zusammenführen von dataframes
Ich möchte ein pandas dataframe und ein numpy array zusammenführen. Der shape des numpy arrays "X_train" ist (494, 92). Der shape des pandas Dataframes ist (494,). Also die zeilenanzahl stimmt überein. Ich wandle mein numpy array in ein pandas dataframe um und dann nutze ich die pd.concat ...
- Samstag 31. Dezember 2022, 23:28
- Forum: Allgemeine Fragen
- Thema: Fehlermeldung bei der Übergabe von Parametern
- Antworten: 2
- Zugriffe: 301
Re: Fehlermeldung bei der Übergabe von Parametern
Weil sowohl den Metriken selbst (also recall_score, precision_score, etc.) als auch cross_validate die Features und Label übergeben wurden Richtig wäre: scoring = {"Recall": make_scorer(recall_score, pos_label=positive_class_label), "Precision": make_scorer(precision_score, pos_l...
- Samstag 31. Dezember 2022, 23:19
- Forum: Allgemeine Fragen
- Thema: Fehlermeldung bei der Übergabe von Parametern
- Antworten: 2
- Zugriffe: 301
Fehlermeldung bei der Übergabe von Parametern
Ich möchte die Performance meines Models mit mehreren Metriken gleichzeitig messen. Dazu nutze ich die "cross_validate" von sklearn. Mein Code sieht folgendermaßen aus: predictions = cross_val_predict(model,X_data, y_data, cv = 10) predict_proba = cross_val_predict(model,X_data, y_data, cv...
- Sonntag 18. Dezember 2022, 12:05
- Forum: Allgemeine Fragen
- Thema: Handling von Imbalanced Datasets
- Antworten: 1
- Zugriffe: 221
Handling von Imbalanced Datasets
Ich habe ein sehr stark unausgeglichenes Dataset mit 131 Samples in der minjority Klasse und fast 30000 Samples in der majority Klasse. Ich habe versucht mit over-/undersampling versucht und mit den Algorithmus spezifischen Parametern (wie z.B. scale_pos_weight bei Xgboost) meine Performance der Alg...
- Samstag 17. Dezember 2022, 01:28
- Forum: Allgemeine Fragen
- Thema: roc_auc_score für binary classifier
- Antworten: 0
- Zugriffe: 544
roc_auc_score für binary classifier
Ich habe eine Frage bzgl. des roc_auc_score. In der Dokumentation (Link: https://scikit-learn.org/stable/modules/model_evaluation.html#roc-auc-binary ) steht folgendes: In the case of providing the probability estimates, the probability of the class with the “greater label” should be provided Meine ...
- Sonntag 6. November 2022, 00:08
- Forum: Allgemeine Fragen
- Thema: Hyperparameter Tuning return die selben Werte für verschiedene Hyperparameter
- Antworten: 0
- Zugriffe: 450
Hyperparameter Tuning return die selben Werte für verschiedene Hyperparameter
Ich möche für die Klassifikation meiner Daten in 5 Klassen mein Xgboost Model tunen (siehe Code). Dazu verwende ich die Bibliothek optuna. def objective(trial): eta = trial.suggest_float("eta",0,0.5) max_depth = trial.suggest_int("max_depth",2,32) min_child_weight = trial.suggest...
- Samstag 5. November 2022, 16:17
- Forum: Allgemeine Fragen
- Thema: Effizienteres Vorgehen
- Antworten: 1
- Zugriffe: 222
Effizienteres Vorgehen
Ich habe folgenden Code. punkte_anzahl = 322 kurven_anzahl = 260 arr = [np.full(shape=(punkte_anzahl,1), fill_value=i) for i in range(kurven_anzahl)] arr = np.asarray(arr) arr = arr.reshape(-1,1) arr.shape Dabei möchte ich einen array erzeugen, wobei jeweils jeder wert von 0 bis 259 --> 322 mal wied...
- Mittwoch 19. Oktober 2022, 19:53
- Forum: Allgemeine Fragen
- Thema: Unterschiedliche ergebnisse bei der validierung eines sklearn models
- Antworten: 0
- Zugriffe: 405
Unterschiedliche ergebnisse bei der validierung eines sklearn models
Mit dem folgenden Code versuche ich die Parameter eines sklearn models zu optimieren. def objective(trial): n_estimators = trial.suggest_int("n_estimators",20, 1000) max_depth = trial.suggest_int("max_depth",5,500) rf = RandomForestClassifier(n_estimators=n_estimators, max_depth=...
- Donnerstag 13. Oktober 2022, 18:21
- Forum: Allgemeine Fragen
- Thema: plotten von optuna
- Antworten: 1
- Zugriffe: 197
plotten von optuna
Ich möchte mit der folgenden funktion einige plot funktionen der optuna.visualization bibliothek plotten. https://optuna.readthedocs.io/en/stable/reference/visualization/index.html leider funktioniert das bei mit nicht. Die funktion läuft zwar durch. Geplottet wird aber leider gar nichts def plotte_...
- Mittwoch 12. Oktober 2022, 21:13
- Forum: Allgemeine Fragen
- Thema: Wert des Attributes in einer For schleife ändern
- Antworten: 2
- Zugriffe: 338
Wert des Attributes in einer For schleife ändern
Ich möchte den Wert einer Instanz in Abhängigkeit der Iterationsvariable ändern. Ich weiß aber leider nicht wie ich das hinbekommen soll Ich habe folgendes getestet, was aber nicht funktioniert hat. Das Attribut C soll die Werte der Iteratorvariable "i" annehmen. Wenn ich die returnte &quo...
- Dienstag 11. Oktober 2022, 17:11
- Forum: Allgemeine Fragen
- Thema: SyntaxError: invalid syntax bei Verwendung von lambda Parameter des XGBRFClassifiers
- Antworten: 4
- Zugriffe: 359
Re: SyntaxError: invalid syntax bei Verwendung von lambda Parameter des XGBRFClassifiers
Stimmt vielen Dank für die Antworten!
- Donnerstag 6. Oktober 2022, 18:56
- Forum: Allgemeine Fragen
- Thema: SyntaxError: invalid syntax bei Verwendung von lambda Parameter des XGBRFClassifiers
- Antworten: 4
- Zugriffe: 359
Re: SyntaxError: invalid syntax bei Verwendung von lambda Parameter des XGBRFClassifiers
Ich habe auch schon die Antwort darauf gefunden link: https://stackoverflow.com/questions/529 ... or-xgboost
- Donnerstag 6. Oktober 2022, 18:52
- Forum: Allgemeine Fragen
- Thema: SyntaxError: invalid syntax bei Verwendung von lambda Parameter des XGBRFClassifiers
- Antworten: 4
- Zugriffe: 359
SyntaxError: invalid syntax bei Verwendung von lambda Parameter des XGBRFClassifiers
Ich möchte eine Instanz der Klasse xgboost.XGBRFClassifiers erstellen. Wenn ich den Parameter lambda=0.999999999 verwende dann erhalte ich einen SyntaxError. Ich finde den Fehler aber leider nicht. # Dieser Code funktioniert einwandfrei: model=XGBRFClassifier(eta=0.049999999999999996, gamma=0.2, max...
- Montag 3. Oktober 2022, 17:19
- Forum: Allgemeine Fragen
- Thema: Fehlermeldung bei StratifiedShuffleSplit
- Antworten: 5
- Zugriffe: 375
Re: Fehlermeldung bei StratifiedShuffleSplit
Danke. alles funktioniert jetzt. Das ist der code dazu, falls jemand das selbe problem haben sollte def split_in_train_val_test(dataframe_was_gesplittet_werden_soll, größe_der_kleinen_gruppen = 0.1, spaltenname_nach_der_gesplittet_werden_soll="Kategorienummer"): aufteilungsgruppen = datafr...
- Montag 3. Oktober 2022, 14:32
- Forum: Allgemeine Fragen
- Thema: axis Parameter von tf.keras.layers.BatchNormalization
- Antworten: 0
- Zugriffe: 442
axis Parameter von tf.keras.layers.BatchNormalization
Um besser zu verstehen, was der "axis" Parameter von tf.keras.layers.BatchNormalization macht habe ich folgendes codebeispiel geschrieben. Ich habe den wert der axis auf axis=0; axis=1 und axis=2 gesetzt. Bei allen drei versuchen, war der output gleich. Daher erschließt sich mir der nutzen...
- Montag 3. Oktober 2022, 13:09
- Forum: Allgemeine Fragen
- Thema: Fehlermeldung bei StratifiedShuffleSplit
- Antworten: 5
- Zugriffe: 375
Re: Fehlermeldung bei StratifiedShuffleSplit
da n_splits=1 ist, wird der dataframe nur einmal gesplittet. Die .splitt() methode gibt ein <generator object BaseShuffleSplit.split> objekt zurück welches mit der for schleife iteriert wird. Also gibt es keine anderen gruppen außer "große_gruppe" und "kleine_gruppe" glaube ich. ...
- Sonntag 2. Oktober 2022, 18:06
- Forum: Allgemeine Fragen
- Thema: Fehlermeldung bei StratifiedShuffleSplit
- Antworten: 5
- Zugriffe: 375
Re: Fehlermeldung bei StratifiedShuffleSplit
ich habe statt .loc --> iloc verwendet. damit hat es funkioniert
- Sonntag 2. Oktober 2022, 15:01
- Forum: Allgemeine Fragen
- Thema: Fehlermeldung bei StratifiedShuffleSplit
- Antworten: 5
- Zugriffe: 375
Fehlermeldung bei StratifiedShuffleSplit
ich erhalte folgenden Fehlermeldung bei dem untenstehenden code: KeyError: '[193, 85, 39, 58, 274, 120, 152, 176, 320, 300, 37, 121, 130, 253, 12, 87, 315, 161, 46, 201, 278, 178, 237, 92, 65, 224, 243, 187, 231, 213] not in index' import pandas as pd import numpy as np from sklearn.model_selection ...
- Freitag 30. September 2022, 21:14
- Forum: Allgemeine Fragen
- Thema: Verwendung von tf.data.Datasets
- Antworten: 2
- Zugriffe: 315
Re: Verwendung von tf.data.Datasets
Durch tf.random.set_seed() wird nicht gleich gemischt. Das habe ich mit dem folgenden Code rausfinden können. a = np.arange(10) b = np.arange(10) a = tf.data.Dataset.from_tensor_slices(a) b = tf.data.Dataset.from_tensor_slices(b) a = a.repeat(5).shuffle(50).batch(20).prefetch(1) b = b.repeat(5).shuf...
- Freitag 30. September 2022, 20:51
- Forum: Allgemeine Fragen
- Thema: Verwendung von tf.data.Datasets
- Antworten: 2
- Zugriffe: 315
Verwendung von tf.data.Datasets
Ich habe Daten welche ich in X_train, y_train, X_validation, y_validatino, X_test und y_test gesplittet habe. Dafür habe ich die Funktionen von Sklearn verwendet. Die daten sind als numpy arrays gespeichert. Nun möchte ich die funktionen von tf.data.Dataset (Link: https://www.tensorflow.org/api_docs...