Machine Learning Engineering

Wie man zwei Zeitstempel in gleiche Teile teilt

Wie man zwei Zeitstempel in gleiche Teile teilt

Hung ManhAug 9, 20233 min read

TLDR: pd.date_range(start=s, end=e, periods=period) Problem Wie kann man gleichmäßige Zeitabstände zwischen zwei Zeitstempeln erzeugen? Mein erster Gedanke, wenn es darum geht, gleichmäßig verteilte Zahlen zu erstellen, ist die Verwendung von linspace. Dazu müssten die Datumsangaben in Unix-Zeitstempel umgewandelt, die entsprechenden…

Pytorch – Skalartyp Float erwartet, aber Double gefunden

Pytorch – Skalartyp Float erwartet, aber Double gefunden

Hung ManhDec 14, 20223 min read

TLDR: Der Standard-Datentyp eines Numpy-Arrays ist double/float64. Wenn ein Tensor aus diesem Array mit torch.as_tensor() erstellt wird, nimmt er diesen Datentyp an. Der Standarddatentyp eines neuronalen Netzwerkmodells ist allerdings float32. Die Verwendung des float64 Tensors als Eingabe für das NN-Modell…

Fehler beim Training eines Languagemodels – RuntimeError the expanded size of the tensor (100) must match the existing size (64) at non singleton dimension 1.

Fehler beim Training eines Languagemodels – RuntimeError the expanded size of the tensor (100) must match the existing size (64) at non singleton dimension 1.

Hung ManhJul 4, 20221 min read

Kontext Ich habe ein neues Sprachmodell von Grund auf mit dem Huggingface-Frameworkes und einem vorkonfiguriertem Roberta-Modells auf einem eigenen Datensatz trainiert. Nun wollt ich einen neuen Datensatz mit Hilfe des trainierten Modells vektorisieren. Beobachtung Es trat ein Fehler auf: RuntimeError…

SentenceTransformer – float object is not subscriptable

SentenceTransformer – float object is not subscriptable

Hung ManhJun 1, 20222 min read

TLDR: np.nan Objekte sind fom Typ float Beobachtung Um numerische Repräsentationen für Dokumente (sogenannte Embeddings) zu erstellen habe ich mich dem SentenceTransformer (v2.2.0) bedient, allerdings wurde in vereinzelten Fällen der Fehler “TypeError: ‘float’ object is not subscriptable” geworfen. Der traceback…

Visuelle Erklärung der Multi-Head Attention

Visuelle Erklärung der Multi-Head Attention

Hung ManhMay 28, 20225 min read

Warum ändert sich bei einer Änderung der Anzahl der Heads eines Transformermodell nicht dessen Anzahl an Parametern? – Das war die Frage, die ich mir gestellt habe. Nachdem ich die entsprechende Matrizenmultiplikation nachvollzogen und zu einem entsprechendem Ergebnis gekommen bin,…

Evaluierung des Trainers der Transformer Bibliothek

Evaluierung des Trainers der Transformer Bibliothek

Hung ManhMay 4, 20221 min read

Innerhalb des Transformer Frameworkes kann ein Trainer Objekt lästigen Code für die Konfiguration der Traningspipeline einsparen. Mit den TrainingArguments können zusätzliche Parameter eingestellt werden. Eine der wichtigen Argumente ist die evaluation_strategy, welche als Standartwert “no” besitzt. Dies besagt, dass keine…

Unterschied zwischem dem Tokenizer und PreTrainedTokenizer

Unterschied zwischem dem Tokenizer und PreTrainedTokenizer

Hung ManhMar 17, 20225 min read

Da ich recht zufällig in des Transformers framework reingezogen wurde, hatte ich anfangs einige Probleme gehabt, die verschiedenen Komponenten zu verstehen. In diesem Beitrag würde ich gerne mein Verständnis zum Tokenizer teilen und wie man special_tokens einbauen kann, um sie…

Objekterkennung – Ein Überblick zur Mean Average Precision (mAP)

Objekterkennung – Ein Überblick zur Mean Average Precision (mAP)

Hung ManhDec 2, 202014 min read

Die Welt der Objekterkennung ist ein faszinierendes Gebiet in welches ich innerhalb einer Projektarbeit einen kurzen Einblick erhaschen konnte. Eines der Kernmetriken, um die Güte eines Objekterkennungsmodelles zu beschreiben, ist die mean Average Precision (mAP). Ich empfand es als sehr…

hungsblog | Nguyen Hung Manh | Dresden
Nach oben scrollen