Skip to content

Ein Machine-Learning-Projekt zur automatischen Unterscheidung von Web- und Strickstoffen für Textilrecycling. Enthält eigenen Demo-Datensatz, Annotation-Guide, Modell-Training und Auswertung.

Notifications You must be signed in to change notification settings

nath-ga/textilsortml

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

3 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

README.md

Dieses Projekt entwickelt ein Machine-Learning-Modell zur automatischen Unterscheidung von Web- und Strickstoffen fuer den Einsatz im Textilrecycling.

Datensammlung & Labeling

  1. Fotos von Textilien auf neutralem Hintergrund. Alle Beispielbilder stammen aus eigenem Bestand, wurden selbst erstellt und dienen ausschließlich Demonstrations- und Trainingszwecken im Rahmen dieses Portfolioprojekts. Hinweis: Aus urheberrechtlichen Gründen sind im öffentlichen Repository nur ausgewählte, unkritische Beispielbilder enthalten. Das vollständige Trainingsmaterial verbleibt privat.
  2. Freistellen für konsistente Bildausschnitte.
  3. Sprechende Dateinamen:
    web_jacke_01.jpg, strick_pullover_01.jpg
  4. Manuelle Aufteilung in Train/Test (nur unbekannte Bilder im Test).
  5. Labeling-Regeln:
    • Strickstoff: sichtbare Maschen, dehnbar
    • Webstoff: gewebt, rechtwinklige Fäden
    • Bei Zweifel: Dehnbarkeitstest
  6. JSONL-Format:
    {"image_path": "data/images/web_jacke_01.jpg", "label": "webstoff"}

Empfehlung für den Praxis-Einsatz:

Mindestens 500+ Bilder je Materialart, Inter-Annotator-Agreement, klare Label-Guidelines.

Modell-Training

  • Trainingsdatensatz: 28 Bilder
  • Testdatensatz: 8 Bilder
  • Architekturen: SimpleCNN und ResNet18 (Transfer Learning)
  • Augmentationen:
    AUGMENTATION_LEVEL = "none", "light", "medium", "strong"
    

Ergebnisse & Evaluation

Beispiel-Lauf SimpleCNN

  • Test Accuracy: 50% (ohne Augmentation, Overfitting sichtbar)
  • Test Accuracy: 75% ("light" Augmentation, bestes Ergebnis)
  • Test Accuracy: 50% ("medium" Augmentation)
  • Test Accuracy: 37,5% ("strong" Augmentation)

ResNet18 (Transfer Learning) schwankt, bringt auf diesem Mini-Datensatz keinen Zugewinn.

Fazit

  • Mit nur 28 Trainingsbildern und 8 Testbildern lässt sich kein robustes Modell trainieren.
  • "Light"-Augmentation verbessert die Baseline spürbar, stärkere Augmentationen sind kontraproduktiv.
  • Komplexe Modelle wie ResNet brauchen deutlich mehr Daten (>200 je Materialart).
  • Für produktive Anwendungen müssen Datensatz, Guidelines und Tests deutlich erweitert werden.

Nächste Schritte

  • Datensatz um mindestens 200–500 Bilder pro Klasse erweitern.
  • Cross-Validation statt Einmal-Testlauf.
  • Integration eines zweiten Labels für störende Anbauteile (Knöpfe, Reißverschlüsse, Nieten).
  • Web-Demo (z. B. mit Streamlit).

Beispielhafte JSONL-Struktur

{"image_path": "data/images/strick_pullover_01.jpg", "label": "strickstoff"}

Präsentation & Projekt-Slides

Im Ordner presentation/ findest du eine komplette Slide-Serie zum Projektverlauf als PNG-Bilder.
Die Slides geben einen kompakten Überblick über Ziel, Annotation Guide, Datenaufbereitung, Modellarchitekturen, Ergebnisse und Ausblick.

Inhalt der Slides:

  • Überblick & Titel
  • Projektziel & Kontext
  • Datensammlung & Annotation
  • Annotation-Guide & Leitlinien
  • Erste Modelltests & Ergebnisse
  • Architekturvergleich
  • Ausblick & Relevanz

Projektüberblick Projektziel Annotation Annotation Guide Erste Modelltests Architekturvergleich Ausblick und Relevanz

Rechtlicher Hinweis zu den Bilddaten

Die im Repository enthaltenen Demo-Bilder wurden ausschließlich von mir selbst erstellt und stammen aus meinem eigenen Bestand. Sie dienen ausschließlich der Veranschaulichung des Workflows und der Datenstruktur im Rahmen dieses Portfolioprojekts.

Jegliche weitere Nutzung, Veröffentlichung oder Weiterverarbeitung dieser Bilder – auch auszugsweise – ist nur nach ausdrücklicher, vorheriger Rücksprache mit der Urheberin (Nathalie Gassert) gestattet.

Für Trainings- und Testzwecke eigener Modelle, kommerzielle oder wissenschaftliche Verwendung sind die Bilder nicht freigegeben. Bei Interesse an einer weitergehenden Nutzung bitte per E-Mail oder GitHub-Kontakt anfragen.

Hinweis:
Im öffentlichen Repository sind nur kleine Demo-Datensätze enthalten, um den Workflow und die Datenstruktur zu zeigen.
Für ein echtes Modelltraining ist ein deutlich größerer, privat gehaltener Datensatz notwendig.
Skripte und Trainingscode sind voll lauffähig und können mit eigenen oder erweiterten Daten sofort genutzt werden.

Lizenz

Datenquellen: OpenStreetMap (ODbL), Open-Meteo (CC BY 4.0). Analysecode: Open Source.

This project is provided under the following terms:

  • All non-code content (texts, project idea, images, visualizations) is licensed under CC BY-NC 4.0
    https://creativecommons.org/licenses/by-nc/4.0/

  • The source code is free to use and adapt for non-commercial purposes, with attribution.
    Commercial use requires permission: [your email]

© 2025 Nathalie Gassert

License: CC BY-NC 4.0

About

Ein Machine-Learning-Projekt zur automatischen Unterscheidung von Web- und Strickstoffen für Textilrecycling. Enthält eigenen Demo-Datensatz, Annotation-Guide, Modell-Training und Auswertung.

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Languages