Das Thema Datengewinnung ist immer noch hochaktuell.
Nun ein erster Versuch mit Torch und Matrizen.
Mit Torch ist es ohne weiteres möglich synthetische Daten zu gewinnen.
Bei analogen Versuchen mit Tensorflow ist das alles nicht mehr möglich.
Ich musste leider feststellen, dass für den ' Normalverbraucher'
Tensorflow nicht mehr zur Verfügung steht. Man muss nur die
"Hardware-Voraussetzungen " für Tensorflow nachlesen.
Meine sämtlichen ersten Tensorflow-Programme scheitern
schon bei 'import Tenrosflow as tf'. _Unbrauchbar also.
Hier eindas Beispiel mit torch
Gute Zeit OSWALD
Code: Alles auswählen
# Berechnung von Tensoren
#Tensor 0 = Skalar , Tensor 1 = vector, Tensor 2 = matrix
import torch
print(" Datengewinnung mit Vektor x Vector = Tensor")
skalar1 = torch.randn(2)
print("VektorA " ,skalar1)
skalar2 = torch.randn(2)
print("VektorB ",skalar2)
print()
print()
#Multiplikation vector x vector mit matmul ergibt 2 Tensoren
torch.matmul(skalar1, skalar2).size()
tensor= torch.matmul(skalar1, skalar2).size()
print(" 2 Vektoren bilden tensor",tensor )
print()
print()
print(" Datengewinnung und matrix x vector")
matrixA = torch.randn( 3,4
)# Datengewinnung
print(matrixA )
matrixB = torch.randn(4)
print(matrixB )
print()
print()
print(" 3 x 3 x4 matrix multiplikation")
torch.matmul(matrixA , matrixB).size()
print(torch.matmul(matrixA, matrixB).size())
torch.Size([3])
print()
print()
# batched matrix x broadcasted vector
tensor1 = torch.randn(10, 3, 4)
print(tensor1 )
tensor2 = torch.randn(4)
print(tensor2 )
torch.matmul(tensor1, tensor2).size()
torch.Size([10, 3])
# batched matrix x batched matrix
tensor1 = torch.randn(10, 3, 4)
print(tensor1)
tensor2 = torch.randn(10, 4, 5)
print(tensor2)
torch.matmul(tensor1, tensor2).size()
torch.Size([10, 3, 5])
# batched matrix x broadcasted matrix
tensor1 = torch.randn(10, 3, 4)
print(tensor1)
tensor2 = torch.randn(4, 5)
print(tensor2)
torch.matmul(tensor1, tensor2).size()
print(tensor2)