Auf dieser Seite werden Cookies verwendet. Details und Hinweise zu den Einstellungen sind in unseren Datenschutzregeln.
Der weitere Gebrauch von unser Webseite, ohne Änderung der Einstellungen, bedeutet das Einverständnis mit diesen Regeln.

Akzeptieren (Notiz ausblenden)
POL ENG GER 中文(繁體) 中文(简体)

Deep Learning für Industrielle Bildverarbeitung


Vorwort

Das Deep Learning Modul ist eine richtige Revolution auf dem Markt der Systeme für das Bildverstehen. Es ist ein Set der gebrauchsfertigen Werkzeuge, die mit richtigen und unrichtigen Beispielen trainiert werden, welche automatisch Defekte bzw. Merkmale erkennen. Intern nutzt das Modul umfassende Struktur der neuronalen Netze, welche durch unsere Experten entwickelt und optimiert wurden, um sie in den industriellen Systemen der optischen Inspektion anzuwenden. Diese komplexe Funktionalität wurde aber in den im Gebrauch unkomplizierten Filtern eingeschlossen, wobei der Nutzer einfache grafische Werkzeuge zur Verfügung hat, und nur wenige Parameter angefordert werden. Dadurch ist der Trainingsprozess einfach.

Das Deep Learning Modul verwirklicht grundlegende Voraussetzungen von Adaptive Vision:

Intuitive - es kann ohne Kenntnisse der Programmiersprachen verwendet werden

Powerful - es lässt fortgeschrittene Möglichkeiten der neuronalen Netze bewältigen

Adaptable - die Deep Learning Modelle können übertrainiert werden, um neue Merkmale zu erforschen.

Schlüsselpunkte

Trainingsdaten

Typische Anwendungen erfordern zwischen 20 und 50 Bilder für das Training. Je mehr desto besser, aber unsere Software lernt intern wichtige Merkmale aus einem begrenzten Trainingssatz und generiert dann Tausende neuer künstlicher Proben für ein effektives Training.

Ausrüstung

Für ein effektives Training ist eine moderne GPU erforderlich. In der Produktion können Sie entweder GPU oder CPU verwenden. Die GPU ist normalerweise 3-10 mal schneller (mit Ausnahme der Objektklassifizierung, die auf der CPU gleich schnell ist).

Geschwindigkeit

Die typische Trainingszeit auf einer GPU beträgt 5-15 Minuten. Die Inferenzzeit variiert je nach Werkzeug und Hardware zwischen 5 und 100 ms pro Bild. Die höchste Leistung garantiert WEAVER, eine industrielle Inferenzmaschine.

Trainingsprozess

1. Bilder erheben und normalisieren

    • Beschaffen Sie 20 - 50 Bilder, die richtige und unrichtige Beispiele schildern und alle möglichen Abarten der Objekte darstellen; speichern Sie sie auf der Platte.
    • Sorgen Sie dafür, dass die Skala, die Orientierung und die Beleuchtung möglichst einheitlich sind.
  • 2. Training

    • Verwenden Sie den DeepLearning_ClassifyFeatures bzw. DeepLearning_DetectAnomalies Filter.
    • Öffnen Sie den Deep Learning-Editor.
    • Laden Sie Trainingsbilder herunter.
    • Markieren Sie die Bilder als richtig bzw. unrichtig (Vorgang ohne Überwachung) oder markieren Sie Defekte mit Zeichentools (Vorgang mit Überwachung).
    • Klicken Sie auf „Trainieren”
  • Trainings- und Validierungsdaten

    Beim tiefen Lernen und in sonstigen Bereichen des maschinellen Lernens ist die Anwendung der richtigen Methodik von besonderer Bedeutung. Am wichtigsten ist es, die Trainingsdaten von den Validierungsdaten abzutrennen. Die Trainingsdaten sind eine Aufstellung von Bildern, die genutzt wird, um das Modell zu trainieren. Diese Daten können für die Leistungsmessung des Modells nicht angewendet werden, denn im Endresultat werden unrealistisch gute Ergebnisse geliefert. Daher ist es notwendig, eine separate Datensammlung, d.h. Validierungsdaten zu nutzen, um das Modell richtig einzuschätzen. Unser Tool für das tiefe Lernen bildet beide Datensammlungen auf Basis der Bilder, welch durch den Nutzer benennt werden.

    3. Führen Sie aus

    • Starten Sie das Programm und überprüfen Sie die Ergebnisse.
    • Gehen Sie zurück zu Punkt 1 oder Punkt 2, bis die Ergebnisse vollständig zufriedenstellend sind.
  • FAQ

    Wie unterscheidet es sich von TensorFlow oder PyTorch?

    TensorFlow und PyTorch sind Low-Level-Frameworks für Programmierer und Leidenschaftliche. Wenn Sie über ein Forschungs- und Entwicklungsteam verfügen, können Sie diese Tools verwenden, um eine Lösung von Grund auf neu zu erstellen. Es kann einige Tage dauern, bis eine Demo erstellt ist, aber mindestens einige Monate, um ein produktionsfähiges System zu haben, und noch mehr, um die höchstmögliche Leistung zu erzielen. Auf der anderen Seite ist unser Produkt eine Komplettlösung, die in über 100 Projekten vor Ort getestet wurde und die Sie heute selbst verwenden können.

    Warum sollte ich Adaptive Vision verwenden, wenn ich ein neuronales Open-Source-Netzwerk verwenden könnte?

    Wir bieten Ihnen eine Komplettlösung – sie besteht aus fünf optimierten neuronalen Netzwerkdesigns, aber auch aus: grafischen Tools für einfache Annotation und Schulung von Daten, erweiterten Erweiterungen und automatischem Ausgleich von Trainingsdaten, Mischung aus traditionellen und maschinellen Lernmethoden für die Datenvorverarbeitung, optimiert Speicherverwaltung, Inferenz-Engine für Industrie und GPU in Industriequalität, Tools für die Bereitstellung, technischer Support + Know-how. Wir haben viele Mannjahre damit verbracht, all das zu entwickeln, zu testen und zu optimieren, damit Sie es sofort in Ihr Projekt integrieren können, mit einem relativ kleinen Schulungssatz, mit einer Leistung, die weit über den Open-Source-Frameworks liegt, und zu geringen Kosten gleiche Zeit.

    Wie kann ich anfangen?
     

    Laden Sie das Adaptive Vision Studio + Deep Learning-Add-on von unserer Website herunter. Dann 30 Tage lang eine Testlizenz anfordern .

    Wenn Sie möchten, können Sie sich auch direkt an unseren technischen Support wenden, um die Machbarkeit Ihres Projekts nachzuweisen: support@adaptive-vision.com

    .

    Feature Detection

    Beim Vorgang mit Überwachung hat der Nutzer Pixel zu markieren, welche die Defekte auf den Trainingsbildern darstellen. Unser Tool lernt, richtige und richtige Merkmale durch die Beobachtung ihrer grundlegenden Eigenschaften zu unterscheiden.

    Anwendungsbeispiele

    Inspektion der Photovoltaik-Module

    Bei der Inspektion der Solarmodule ist die Aufgabe des Programms, Brüche und Risse an der uneinheitlichen Oberfläche zu erkennen. Die Nutzung der klassischen Methoden würde die Anwendung von komplizierten Algorithmen und Dutzenden Parameter erfordern, welche auf jede Art der Module abgestimmt werden müssten. Beim tiefen Lernen genügt es, das System im Vorgang mit Überwachung zu trainieren und dabei nur ein Tool zu nutzen.

    Segmentierung der Satellitenbilder

    In Hinsicht auf das Vorkommen mehrerer unterschiedlicher Elemente lassen sich die Satellitenbilder schwierig analysieren. Unser Deep Learning Modul kann austrainiert werden, um Straßen und Gebäude mit höchster Präzision zu erkennen. Das Training kann mittels eines richtig markierten Bildes durchgeführt werden, und die Ergebnisse sind sofort überprüfbar. Legen Sie mehr markierte Proben bei, um die Richtigkeit des Modells zu steigern.

    Anomaly Detection

    Im Vorgang ohne Überwachung ist der Trainingsprozess einfacher. Eine konkrete Definition des Defekts besteht hier nicht: das Tool wird mittels der richtigen Proben trainiert. Auf ihrer Basis werden sämtliche Abweichungen auf geprüften Bildern gezeigt.

    Anwendungsbeispiele

    Überprüfung von Verpackungen

    Wenn eine Sushi-Packung dem Verkäufer geliefert wird, müssen sich alle Elemente in einer bestimmten Lage befinden. Es ist schwierig, Defekte zu definieren, wenn die Form der richtigen Stücke auch variieren kann. Das Problem lässt sich lösen, indem man das tiefe Lernen ohne Überwachung anwendet, wodurch alle bedeutenden Abweichungen davon erkannt werden, was das Tool im Training gelernt hat.

    Kunststoffe, Spritzgussformen

    Das Ausformen im Spritzgussverfahren ist ein komplizierter Prozess, in dessen Ablauf mehrere Probleme entstehen können. Gegenstände, die aus Kunststoff hergestellt werden, können für das Biegen bzw. andere Deformationen anfällig sein, welche für den Kunden akzeptabel sind. Unser Deep Learning Modul kann auf Basis der gelieferten Proben alle akzeptablen Verformungen lernen, und anschließend allerlei Abweichungen an der Produktionsanlage erkennen.

    Object Classification

    Das Objektklassifizierungswerkzeug unterteilt Eingabebilder in Gruppen, die vom Benutzer entsprechend ihrer besonderen Merkmale erstellt wurden. Als Ergebnis werden der Name einer Klasse und das Klassifizierungsvertrauen angegeben.

    Anwendungsbeispiele

    Kunststoffkappen: vorne oder hinten

    Kunststoffkappen können manchmal versehentlich in der Produktionsmaschine umdrehen. Der Kunde möchte diese Situation erkennen. Die Aufgabe kann mit herkömmlichen Methoden erledigt werden, erfordert jedoch einen Experten, um einen bestimmten Algorithmus für diese Anwendung zu entwerfen. Auf der anderen Seite können wir eine Deep-Learning-basierte Klassifizierung verwenden, die automatisch lernt, Vorder- und Rückseite anhand einer Reihe von Trainingsbildern zu erkennen.

    3D Leichtmetallrad Identifikation

    In einem Werk können Hunderte verschiedener Leichtmetallradtypen hergestellt werden. Die Identifizierung eines bestimmten Modells mit solchen Modellmengen ist mit herkömmlichen Methoden praktisch unmöglich. Das Anpassen von Vorlagen würde sehr viel Zeit in Anspruch nehmen, um Hunderte von Modellen abzugleichen, während die Herstellung maßgeschneiderter Modelle einfach zu viel Entwicklung und Wartung erfordern würde. Deep Learning ist eine ideale Lösung, die direkt aus Beispielbildern ohne maßgeschneiderte Entwicklung lernt.

    Instance Segmentation

    Die Instanzsegmentierungstechnik wird verwendet, um einzelne oder mehrere Objekte innerhalb eines Bildes zu lokalisieren, zu segmentieren und zu klassifizieren. Im Gegensatz zur Merkmalerkennungstechnik erkennt diese Technik einzelne Objekte und kann sie möglicherweise trennen, selbst wenn sie sich berühren oder überlappen.

    Anwendungsbeispiele

    Nuss Segmentierung

    Gemischte Nüsse sind ein sehr beliebtes Snack-Food, das aus verschiedenen Arten von Nüssen besteht. Da die prozentuale Zusammensetzung der Nüsse in einer Packung der Liste der auf der Packung aufgedruckten Zutaten entsprechen muss, möchten die Kunden sicherstellen, dass die richtige Menge an Nüssen jeder Art verpackt wird. Das Instanzsegmentierungswerkzeug ist eine ideale Lösung in einer solchen Anwendung, da es Masken zurückgibt, die den segmentierten Objekten entsprechen.


    Überprüfung von Verpackungen

    Ein typischer Satz Suppengrün, der in Europa verwendet wird, wird in zufälliger Position auf einem weißen Plastikteller verpackt. Produktionslinienarbeiter vergessen manchmal versehentlich, eines der Gemüse auf den Teller zu legen. Obwohl es ein System gibt, das die Platten wiegt, möchte der Kunde die Vollständigkeit des Produkts unmittelbar vor dem Versiegelungsprozess überprüfen. Da es keine zwei Gemüse gibt, die gleich aussehen, besteht die Lösung darin, eine auf tiefem Lernen basierende Segmentierung zu verwenden. In der Schulungsphase muss der Kunde lediglich Regionen markieren, die Gemüse entsprechen.

    Point Location

    Das Werkzeug Punktposition sucht nach bestimmten Formen, Merkmalen oder Markierungen, die als Punkte in einem Eingabebild identifiziert werden können. Es kann mit dem herkömmlichen Template-Matching verglichen werden, aber hier wird das Tool mit mehreren Samples trainiert und wird robust gegen große Variabilität der interessierenden Objekte.

    Anwendungsbeispiele

    Bienen verfolgen

    Die Aufgabe, die mit herkömmlichen Bildverarbeitungsmethoden unmöglich zu erfüllen scheint, kann mit unserem neuesten Tool erledigt werden. In diesem Fall verwenden wir es, um Bienen zu erkennen. Wenn dies erledigt ist, können wir überprüfen, ob sie durch Varroose infiziert sind - die Krankheit, die durch die parasitären Milben verursacht wird, die die Honigbienen angreifen. Der Parasit bindet sich an ihren Körper und aufgrund einer charakteristischen roten Entzündung können wir ihn nach seinem Gesundheitszustand klassifizieren. Dieses Beispiel zeigt nicht nur, dass es eine einfache Lösung für eine komplexe Aufgabe ist, sondern dass wir auch für viele verschiedene Industriezweige offen sind, z. Landwirtschaft.

    Pick and Place

    In diesen Anwendungen müssen wir einen Roboterarm führen, um Gegenstände aufzunehmen, typischerweise von einem Förderband oder von einem Behälter. Ein gutes Beispiel für eine solche Anwendung ist das Pflücken kleiner Stecklinge und das vertikale Einsetzen in Töpfe. Ungenauigkeiten bei der Erkennung können dazu führen, dass sie zu tief oder verkehrt herum gepflanzt werden, was dazu führt, dass Stecklinge keine Wurzeln bilden. Unsere Deep-Learning-Tools ermöglichen es, die gewünschten Pflanzenteile schnell zu lokalisieren und genaue Ergebnisse zu liefern, die für diesen Vorgang erforderlich sind.