Ich möchte ein pandas dataframe und ein numpy array zusammenführen. Der shape des numpy arrays "X_train" ist (494, 92). Der shape des pandas Dataframes ist (494,). Also die zeilenanzahl stimmt überein.
Ich wandle mein numpy array in ein pandas dataframe um und dann nutze ich die pd.concat funktion ...
Die Suche ergab 92 Treffer
- Montag 16. Januar 2023, 00:25
- Forum: Allgemeine Fragen
- Thema: Zusammenführen von dataframes
- Antworten: 0
- Zugriffe: 1273
- Samstag 31. Dezember 2022, 23:28
- Forum: Allgemeine Fragen
- Thema: Fehlermeldung bei der Übergabe von Parametern
- Antworten: 2
- Zugriffe: 473
Re: Fehlermeldung bei der Übergabe von Parametern
Weil sowohl den Metriken selbst (also recall_score, precision_score, etc.) als auch cross_validate die Features und Label übergeben wurden
Richtig wäre:
scoring = {"Recall": make_scorer(recall_score, pos_label=positive_class_label),
"Precision": make_scorer(precision_score, pos_label=positive ...
Richtig wäre:
scoring = {"Recall": make_scorer(recall_score, pos_label=positive_class_label),
"Precision": make_scorer(precision_score, pos_label=positive ...
- Samstag 31. Dezember 2022, 23:19
- Forum: Allgemeine Fragen
- Thema: Fehlermeldung bei der Übergabe von Parametern
- Antworten: 2
- Zugriffe: 473
Fehlermeldung bei der Übergabe von Parametern
Ich möchte die Performance meines Models mit mehreren Metriken gleichzeitig messen. Dazu nutze ich die "cross_validate" von sklearn.
Mein Code sieht folgendermaßen aus:
predictions = cross_val_predict(model,X_data, y_data, cv = 10)
predict_proba = cross_val_predict(model,X_data, y_data, cv = 10 ...
Mein Code sieht folgendermaßen aus:
predictions = cross_val_predict(model,X_data, y_data, cv = 10)
predict_proba = cross_val_predict(model,X_data, y_data, cv = 10 ...
- Sonntag 18. Dezember 2022, 12:05
- Forum: Allgemeine Fragen
- Thema: Handling von Imbalanced Datasets
- Antworten: 1
- Zugriffe: 317
Handling von Imbalanced Datasets
Ich habe ein sehr stark unausgeglichenes Dataset mit 131 Samples in der minjority Klasse und fast 30000 Samples in der majority Klasse.
Ich habe versucht mit over-/undersampling versucht und mit den Algorithmus spezifischen Parametern (wie z.B. scale_pos_weight bei Xgboost) meine Performance der ...
Ich habe versucht mit over-/undersampling versucht und mit den Algorithmus spezifischen Parametern (wie z.B. scale_pos_weight bei Xgboost) meine Performance der ...
- Samstag 17. Dezember 2022, 01:28
- Forum: Allgemeine Fragen
- Thema: roc_auc_score für binary classifier
- Antworten: 0
- Zugriffe: 1010
roc_auc_score für binary classifier
Ich habe eine Frage bzgl. des roc_auc_score.
In der Dokumentation (Link: https://scikit-learn.org/stable/modules/model_evaluation.html#roc-auc-binary ) steht folgendes: In the case of providing the probability estimates, the probability of the class with the “greater label” should be provided ...
In der Dokumentation (Link: https://scikit-learn.org/stable/modules/model_evaluation.html#roc-auc-binary ) steht folgendes: In the case of providing the probability estimates, the probability of the class with the “greater label” should be provided ...
- Sonntag 6. November 2022, 00:08
- Forum: Allgemeine Fragen
- Thema: Hyperparameter Tuning return die selben Werte für verschiedene Hyperparameter
- Antworten: 0
- Zugriffe: 986
Hyperparameter Tuning return die selben Werte für verschiedene Hyperparameter
Ich möche für die Klassifikation meiner Daten in 5 Klassen mein Xgboost Model tunen (siehe Code).
Dazu verwende ich die Bibliothek optuna.
def objective(trial):
eta = trial.suggest_float("eta",0,0.5)
max_depth = trial.suggest_int("max_depth",2,32)
min_child_weight = trial.suggest_float("min ...
Dazu verwende ich die Bibliothek optuna.
def objective(trial):
eta = trial.suggest_float("eta",0,0.5)
max_depth = trial.suggest_int("max_depth",2,32)
min_child_weight = trial.suggest_float("min ...
- Samstag 5. November 2022, 16:17
- Forum: Allgemeine Fragen
- Thema: Effizienteres Vorgehen
- Antworten: 1
- Zugriffe: 313
Effizienteres Vorgehen
Ich habe folgenden Code.
punkte_anzahl = 322
kurven_anzahl = 260
arr = [np.full(shape=(punkte_anzahl,1), fill_value=i) for i in range(kurven_anzahl)]
arr = np.asarray(arr)
arr = arr.reshape(-1,1)
arr.shape
Dabei möchte ich einen array erzeugen, wobei jeweils jeder wert von 0 bis 259 --> 322 ...
punkte_anzahl = 322
kurven_anzahl = 260
arr = [np.full(shape=(punkte_anzahl,1), fill_value=i) for i in range(kurven_anzahl)]
arr = np.asarray(arr)
arr = arr.reshape(-1,1)
arr.shape
Dabei möchte ich einen array erzeugen, wobei jeweils jeder wert von 0 bis 259 --> 322 ...
- Mittwoch 19. Oktober 2022, 19:53
- Forum: Allgemeine Fragen
- Thema: Unterschiedliche ergebnisse bei der validierung eines sklearn models
- Antworten: 0
- Zugriffe: 949
Unterschiedliche ergebnisse bei der validierung eines sklearn models
Mit dem folgenden Code versuche ich die Parameter eines sklearn models zu optimieren.
def objective(trial):
n_estimators = trial.suggest_int("n_estimators",20, 1000)
max_depth = trial.suggest_int("max_depth",5,500)
rf = RandomForestClassifier(n_estimators=n_estimators, max_depth=max_depth ...
def objective(trial):
n_estimators = trial.suggest_int("n_estimators",20, 1000)
max_depth = trial.suggest_int("max_depth",5,500)
rf = RandomForestClassifier(n_estimators=n_estimators, max_depth=max_depth ...
- Donnerstag 13. Oktober 2022, 18:21
- Forum: Allgemeine Fragen
- Thema: plotten von optuna
- Antworten: 1
- Zugriffe: 299
plotten von optuna
Ich möchte mit der folgenden funktion einige plot funktionen der optuna.visualization bibliothek plotten. https://optuna.readthedocs.io/en/stable/reference/visualization/index.html
leider funktioniert das bei mit nicht. Die funktion läuft zwar durch. Geplottet wird aber leider gar nichts
def ...
leider funktioniert das bei mit nicht. Die funktion läuft zwar durch. Geplottet wird aber leider gar nichts
def ...
- Mittwoch 12. Oktober 2022, 21:13
- Forum: Allgemeine Fragen
- Thema: Wert des Attributes in einer For schleife ändern
- Antworten: 2
- Zugriffe: 465
Wert des Attributes in einer For schleife ändern
Ich möchte den Wert einer Instanz in Abhängigkeit der Iterationsvariable ändern. Ich weiß aber leider nicht wie ich das hinbekommen soll
Ich habe folgendes getestet, was aber nicht funktioniert hat.
Das Attribut C soll die Werte der Iteratorvariable "i" annehmen.
Wenn ich die returnte "modellist ...
Ich habe folgendes getestet, was aber nicht funktioniert hat.
Das Attribut C soll die Werte der Iteratorvariable "i" annehmen.
Wenn ich die returnte "modellist ...
- Dienstag 11. Oktober 2022, 17:11
- Forum: Allgemeine Fragen
- Thema: SyntaxError: invalid syntax bei Verwendung von lambda Parameter des XGBRFClassifiers
- Antworten: 4
- Zugriffe: 705
Re: SyntaxError: invalid syntax bei Verwendung von lambda Parameter des XGBRFClassifiers
Stimmt vielen Dank für die Antworten!
- Donnerstag 6. Oktober 2022, 18:56
- Forum: Allgemeine Fragen
- Thema: SyntaxError: invalid syntax bei Verwendung von lambda Parameter des XGBRFClassifiers
- Antworten: 4
- Zugriffe: 705
Re: SyntaxError: invalid syntax bei Verwendung von lambda Parameter des XGBRFClassifiers
Ich habe auch schon die Antwort darauf gefunden link: https://stackoverflow.com/questions/529 ... or-xgboost
- Donnerstag 6. Oktober 2022, 18:52
- Forum: Allgemeine Fragen
- Thema: SyntaxError: invalid syntax bei Verwendung von lambda Parameter des XGBRFClassifiers
- Antworten: 4
- Zugriffe: 705
SyntaxError: invalid syntax bei Verwendung von lambda Parameter des XGBRFClassifiers
Ich möchte eine Instanz der Klasse xgboost.XGBRFClassifiers erstellen. Wenn ich den Parameter lambda=0.999999999 verwende dann erhalte ich einen SyntaxError. Ich finde den Fehler aber leider nicht.
# Dieser Code funktioniert einwandfrei:
model=XGBRFClassifier(eta=0.049999999999999996, gamma=0.2 ...
# Dieser Code funktioniert einwandfrei:
model=XGBRFClassifier(eta=0.049999999999999996, gamma=0.2 ...
- Montag 3. Oktober 2022, 17:19
- Forum: Allgemeine Fragen
- Thema: Fehlermeldung bei StratifiedShuffleSplit
- Antworten: 5
- Zugriffe: 673
Re: Fehlermeldung bei StratifiedShuffleSplit
Danke. alles funktioniert jetzt.
Das ist der code dazu, falls jemand das selbe problem haben sollte
def split_in_train_val_test(dataframe_was_gesplittet_werden_soll, größe_der_kleinen_gruppen = 0.1, spaltenname_nach_der_gesplittet_werden_soll="Kategorienummer"):
aufteilungsgruppen = dataframe ...
Das ist der code dazu, falls jemand das selbe problem haben sollte
def split_in_train_val_test(dataframe_was_gesplittet_werden_soll, größe_der_kleinen_gruppen = 0.1, spaltenname_nach_der_gesplittet_werden_soll="Kategorienummer"):
aufteilungsgruppen = dataframe ...
- Montag 3. Oktober 2022, 14:32
- Forum: Allgemeine Fragen
- Thema: axis Parameter von tf.keras.layers.BatchNormalization
- Antworten: 0
- Zugriffe: 979
axis Parameter von tf.keras.layers.BatchNormalization
Um besser zu verstehen, was der "axis" Parameter von tf.keras.layers.BatchNormalization macht habe ich folgendes codebeispiel geschrieben. Ich habe den wert der axis auf axis=0; axis=1 und axis=2 gesetzt. Bei allen drei versuchen, war der output gleich. Daher erschließt sich mir der nutzen des ...
- Montag 3. Oktober 2022, 13:09
- Forum: Allgemeine Fragen
- Thema: Fehlermeldung bei StratifiedShuffleSplit
- Antworten: 5
- Zugriffe: 673
Re: Fehlermeldung bei StratifiedShuffleSplit
da n_splits=1 ist, wird der dataframe nur einmal gesplittet. Die .splitt() methode gibt ein <generator object BaseShuffleSplit.split> objekt zurück welches mit der for schleife iteriert wird.
Also gibt es keine anderen gruppen außer "große_gruppe" und "kleine_gruppe" glaube ich. oder verstehe ich ...
Also gibt es keine anderen gruppen außer "große_gruppe" und "kleine_gruppe" glaube ich. oder verstehe ich ...
- Sonntag 2. Oktober 2022, 18:06
- Forum: Allgemeine Fragen
- Thema: Fehlermeldung bei StratifiedShuffleSplit
- Antworten: 5
- Zugriffe: 673
Re: Fehlermeldung bei StratifiedShuffleSplit
ich habe statt .loc --> iloc verwendet. damit hat es funkioniert
- Sonntag 2. Oktober 2022, 15:01
- Forum: Allgemeine Fragen
- Thema: Fehlermeldung bei StratifiedShuffleSplit
- Antworten: 5
- Zugriffe: 673
Fehlermeldung bei StratifiedShuffleSplit
ich erhalte folgenden Fehlermeldung bei dem untenstehenden code:
KeyError: '[193, 85, 39, 58, 274, 120, 152, 176, 320, 300, 37, 121, 130, 253, 12, 87, 315, 161, 46, 201, 278, 178, 237, 92, 65, 224, 243, 187, 231, 213] not in index'
import pandas as pd
import numpy as np
from sklearn.model ...
KeyError: '[193, 85, 39, 58, 274, 120, 152, 176, 320, 300, 37, 121, 130, 253, 12, 87, 315, 161, 46, 201, 278, 178, 237, 92, 65, 224, 243, 187, 231, 213] not in index'
import pandas as pd
import numpy as np
from sklearn.model ...
- Freitag 30. September 2022, 21:14
- Forum: Allgemeine Fragen
- Thema: Verwendung von tf.data.Datasets
- Antworten: 2
- Zugriffe: 547
Re: Verwendung von tf.data.Datasets
Durch tf.random.set_seed() wird nicht gleich gemischt. Das habe ich mit dem folgenden Code rausfinden können.
a = np.arange(10)
b = np.arange(10)
a = tf.data.Dataset.from_tensor_slices(a)
b = tf.data.Dataset.from_tensor_slices(b)
a = a.repeat(5).shuffle(50).batch(20).prefetch(1)
b = b.repeat(5 ...
a = np.arange(10)
b = np.arange(10)
a = tf.data.Dataset.from_tensor_slices(a)
b = tf.data.Dataset.from_tensor_slices(b)
a = a.repeat(5).shuffle(50).batch(20).prefetch(1)
b = b.repeat(5 ...
- Freitag 30. September 2022, 20:51
- Forum: Allgemeine Fragen
- Thema: Verwendung von tf.data.Datasets
- Antworten: 2
- Zugriffe: 547
Verwendung von tf.data.Datasets
Ich habe Daten welche ich in X_train, y_train, X_validation, y_validatino, X_test und y_test gesplittet habe. Dafür habe ich die Funktionen von Sklearn verwendet. Die daten sind als numpy arrays gespeichert.
Nun möchte ich die funktionen von tf.data.Dataset (Link: https://www.tensorflow.org/api ...
Nun möchte ich die funktionen von tf.data.Dataset (Link: https://www.tensorflow.org/api ...