Die Suche ergab 92 Treffer

von nichtSoGuter
Montag 16. Januar 2023, 00:25
Forum: Allgemeine Fragen
Thema: Zusammenführen von dataframes
Antworten: 0
Zugriffe: 1273

Zusammenführen von dataframes

Ich möchte ein pandas dataframe und ein numpy array zusammenführen. Der shape des numpy arrays "X_train" ist (494, 92). Der shape des pandas Dataframes ist (494,). Also die zeilenanzahl stimmt überein.
Ich wandle mein numpy array in ein pandas dataframe um und dann nutze ich die pd.concat funktion ...
von nichtSoGuter
Samstag 31. Dezember 2022, 23:28
Forum: Allgemeine Fragen
Thema: Fehlermeldung bei der Übergabe von Parametern
Antworten: 2
Zugriffe: 473

Re: Fehlermeldung bei der Übergabe von Parametern

Weil sowohl den Metriken selbst (also recall_score, precision_score, etc.) als auch cross_validate die Features und Label übergeben wurden
Richtig wäre:

scoring = {"Recall": make_scorer(recall_score, pos_label=positive_class_label),
"Precision": make_scorer(precision_score, pos_label=positive ...
von nichtSoGuter
Samstag 31. Dezember 2022, 23:19
Forum: Allgemeine Fragen
Thema: Fehlermeldung bei der Übergabe von Parametern
Antworten: 2
Zugriffe: 473

Fehlermeldung bei der Übergabe von Parametern

Ich möchte die Performance meines Models mit mehreren Metriken gleichzeitig messen. Dazu nutze ich die "cross_validate" von sklearn.

Mein Code sieht folgendermaßen aus:

predictions = cross_val_predict(model,X_data, y_data, cv = 10)
predict_proba = cross_val_predict(model,X_data, y_data, cv = 10 ...
von nichtSoGuter
Sonntag 18. Dezember 2022, 12:05
Forum: Allgemeine Fragen
Thema: Handling von Imbalanced Datasets
Antworten: 1
Zugriffe: 317

Handling von Imbalanced Datasets

Ich habe ein sehr stark unausgeglichenes Dataset mit 131 Samples in der minjority Klasse und fast 30000 Samples in der majority Klasse.

Ich habe versucht mit over-/undersampling versucht und mit den Algorithmus spezifischen Parametern (wie z.B. scale_pos_weight bei Xgboost) meine Performance der ...
von nichtSoGuter
Samstag 17. Dezember 2022, 01:28
Forum: Allgemeine Fragen
Thema: roc_auc_score für binary classifier
Antworten: 0
Zugriffe: 1010

roc_auc_score für binary classifier

Ich habe eine Frage bzgl. des roc_auc_score.

In der Dokumentation (Link: https://scikit-learn.org/stable/modules/model_evaluation.html#roc-auc-binary ) steht folgendes: In the case of providing the probability estimates, the probability of the class with the “greater label” should be provided ...
von nichtSoGuter
Sonntag 6. November 2022, 00:08
Forum: Allgemeine Fragen
Thema: Hyperparameter Tuning return die selben Werte für verschiedene Hyperparameter
Antworten: 0
Zugriffe: 986

Hyperparameter Tuning return die selben Werte für verschiedene Hyperparameter

Ich möche für die Klassifikation meiner Daten in 5 Klassen mein Xgboost Model tunen (siehe Code).
Dazu verwende ich die Bibliothek optuna.


def objective(trial):
eta = trial.suggest_float("eta",0,0.5)
max_depth = trial.suggest_int("max_depth",2,32)
min_child_weight = trial.suggest_float("min ...
von nichtSoGuter
Samstag 5. November 2022, 16:17
Forum: Allgemeine Fragen
Thema: Effizienteres Vorgehen
Antworten: 1
Zugriffe: 313

Effizienteres Vorgehen

Ich habe folgenden Code.


punkte_anzahl = 322
kurven_anzahl = 260
arr = [np.full(shape=(punkte_anzahl,1), fill_value=i) for i in range(kurven_anzahl)]
arr = np.asarray(arr)
arr = arr.reshape(-1,1)
arr.shape


Dabei möchte ich einen array erzeugen, wobei jeweils jeder wert von 0 bis 259 --> 322 ...
von nichtSoGuter
Mittwoch 19. Oktober 2022, 19:53
Forum: Allgemeine Fragen
Thema: Unterschiedliche ergebnisse bei der validierung eines sklearn models
Antworten: 0
Zugriffe: 949

Unterschiedliche ergebnisse bei der validierung eines sklearn models

Mit dem folgenden Code versuche ich die Parameter eines sklearn models zu optimieren.

def objective(trial):
n_estimators = trial.suggest_int("n_estimators",20, 1000)
max_depth = trial.suggest_int("max_depth",5,500)

rf = RandomForestClassifier(n_estimators=n_estimators, max_depth=max_depth ...
von nichtSoGuter
Donnerstag 13. Oktober 2022, 18:21
Forum: Allgemeine Fragen
Thema: plotten von optuna
Antworten: 1
Zugriffe: 299

plotten von optuna

Ich möchte mit der folgenden funktion einige plot funktionen der optuna.visualization bibliothek plotten. https://optuna.readthedocs.io/en/stable/reference/visualization/index.html

leider funktioniert das bei mit nicht. Die funktion läuft zwar durch. Geplottet wird aber leider gar nichts


def ...
von nichtSoGuter
Mittwoch 12. Oktober 2022, 21:13
Forum: Allgemeine Fragen
Thema: Wert des Attributes in einer For schleife ändern
Antworten: 2
Zugriffe: 465

Wert des Attributes in einer For schleife ändern

Ich möchte den Wert einer Instanz in Abhängigkeit der Iterationsvariable ändern. Ich weiß aber leider nicht wie ich das hinbekommen soll
Ich habe folgendes getestet, was aber nicht funktioniert hat.

Das Attribut C soll die Werte der Iteratorvariable "i" annehmen.
Wenn ich die returnte "modellist ...
von nichtSoGuter
Donnerstag 6. Oktober 2022, 18:52
Forum: Allgemeine Fragen
Thema: SyntaxError: invalid syntax bei Verwendung von lambda Parameter des XGBRFClassifiers
Antworten: 4
Zugriffe: 705

SyntaxError: invalid syntax bei Verwendung von lambda Parameter des XGBRFClassifiers

Ich möchte eine Instanz der Klasse xgboost.XGBRFClassifiers erstellen. Wenn ich den Parameter lambda=0.999999999 verwende dann erhalte ich einen SyntaxError. Ich finde den Fehler aber leider nicht.


# Dieser Code funktioniert einwandfrei:
model=XGBRFClassifier(eta=0.049999999999999996, gamma=0.2 ...
von nichtSoGuter
Montag 3. Oktober 2022, 17:19
Forum: Allgemeine Fragen
Thema: Fehlermeldung bei StratifiedShuffleSplit
Antworten: 5
Zugriffe: 673

Re: Fehlermeldung bei StratifiedShuffleSplit

Danke. alles funktioniert jetzt.
Das ist der code dazu, falls jemand das selbe problem haben sollte

def split_in_train_val_test(dataframe_was_gesplittet_werden_soll, größe_der_kleinen_gruppen = 0.1, spaltenname_nach_der_gesplittet_werden_soll="Kategorienummer"):

aufteilungsgruppen = dataframe ...
von nichtSoGuter
Montag 3. Oktober 2022, 14:32
Forum: Allgemeine Fragen
Thema: axis Parameter von tf.keras.layers.BatchNormalization
Antworten: 0
Zugriffe: 979

axis Parameter von tf.keras.layers.BatchNormalization

Um besser zu verstehen, was der "axis" Parameter von tf.keras.layers.BatchNormalization macht habe ich folgendes codebeispiel geschrieben. Ich habe den wert der axis auf axis=0; axis=1 und axis=2 gesetzt. Bei allen drei versuchen, war der output gleich. Daher erschließt sich mir der nutzen des ...
von nichtSoGuter
Montag 3. Oktober 2022, 13:09
Forum: Allgemeine Fragen
Thema: Fehlermeldung bei StratifiedShuffleSplit
Antworten: 5
Zugriffe: 673

Re: Fehlermeldung bei StratifiedShuffleSplit

da n_splits=1 ist, wird der dataframe nur einmal gesplittet. Die .splitt() methode gibt ein <generator object BaseShuffleSplit.split> objekt zurück welches mit der for schleife iteriert wird.
Also gibt es keine anderen gruppen außer "große_gruppe" und "kleine_gruppe" glaube ich. oder verstehe ich ...
von nichtSoGuter
Sonntag 2. Oktober 2022, 18:06
Forum: Allgemeine Fragen
Thema: Fehlermeldung bei StratifiedShuffleSplit
Antworten: 5
Zugriffe: 673

Re: Fehlermeldung bei StratifiedShuffleSplit

ich habe statt .loc --> iloc verwendet. damit hat es funkioniert
von nichtSoGuter
Sonntag 2. Oktober 2022, 15:01
Forum: Allgemeine Fragen
Thema: Fehlermeldung bei StratifiedShuffleSplit
Antworten: 5
Zugriffe: 673

Fehlermeldung bei StratifiedShuffleSplit

ich erhalte folgenden Fehlermeldung bei dem untenstehenden code:
KeyError: '[193, 85, 39, 58, 274, 120, 152, 176, 320, 300, 37, 121, 130, 253, 12, 87, 315, 161, 46, 201, 278, 178, 237, 92, 65, 224, 243, 187, 231, 213] not in index'


import pandas as pd
import numpy as np

from sklearn.model ...
von nichtSoGuter
Freitag 30. September 2022, 21:14
Forum: Allgemeine Fragen
Thema: Verwendung von tf.data.Datasets
Antworten: 2
Zugriffe: 547

Re: Verwendung von tf.data.Datasets

Durch tf.random.set_seed() wird nicht gleich gemischt. Das habe ich mit dem folgenden Code rausfinden können.


a = np.arange(10)
b = np.arange(10)
a = tf.data.Dataset.from_tensor_slices(a)
b = tf.data.Dataset.from_tensor_slices(b)

a = a.repeat(5).shuffle(50).batch(20).prefetch(1)
b = b.repeat(5 ...
von nichtSoGuter
Freitag 30. September 2022, 20:51
Forum: Allgemeine Fragen
Thema: Verwendung von tf.data.Datasets
Antworten: 2
Zugriffe: 547

Verwendung von tf.data.Datasets

Ich habe Daten welche ich in X_train, y_train, X_validation, y_validatino, X_test und y_test gesplittet habe. Dafür habe ich die Funktionen von Sklearn verwendet. Die daten sind als numpy arrays gespeichert.

Nun möchte ich die funktionen von tf.data.Dataset (Link: https://www.tensorflow.org/api ...