Deep Learning Add-on ist eine bahnbrechende Technologie für die Bildverarbeitung. Es handelt sich um einen Satz von fünf vorgefertigten Werkzeugen, die mit 20 bis 50 Beispielbildern trainiert werden und dann Objekte, Fehler oder Merkmale automatisch erkennen. Intern werden große neuronale Netze verwendet, die von unserem Forschungsteam für den Einsatz in industriellen Bildverarbeitungssystemen entwickelt und optimiert wurden.
Zusammen mit Aurora Vision Studio erhalten Sie eine Komplettlösung für die Schulung und Bereitstellung moderner Bildverarbeitungsanwendungen.
Warum Deep Learning von Adaptive Vision wählen?
Typische Anwendungen erfordern zwischen 20 und 50 Bilder für das Training. Je mehr desto besser, aber unsere Software lernt intern wichtige Merkmale aus einem begrenzten Trainingssatz und generiert dann Tausende neuer künstlicher Proben für ein effektives Training.
Für ein effektives Training ist eine moderne GPU erforderlich. In der Produktion können Sie entweder GPU oder CPU verwenden. Die GPU ist normalerweise 3-10 mal schneller (mit Ausnahme der Objektklassifizierung, die auf der CPU gleich schnell ist).
Die typische Trainingszeit auf einer GPU beträgt 5-15 Minuten. Die Inferenzzeit variiert je nach Werkzeug und Hardware zwischen 5 und 100 ms pro Bild. Die höchste Leistung garantiert WEAVER, eine industrielle Inferenzmaschine.
Beim tiefen Lernen und in sonstigen Bereichen des maschinellen Lernens ist die Anwendung der richtigen Methodik von besonderer Bedeutung. Am wichtigsten ist es, die Trainingsdaten von den Validierungsdaten abzutrennen. Die Trainingsdaten sind eine Aufstellung von Bildern, die genutzt wird, um das Modell zu trainieren. Diese Daten können für die Leistungsmessung des Modells nicht angewendet werden, denn im Endresultat werden unrealistisch gute Ergebnisse geliefert. Daher ist es notwendig, eine separate Datensammlung, d.h. Validierungsdaten zu nutzen, um das Modell richtig einzuschätzen. Unser Tool für das tiefe Lernen bildet beide Datensammlungen auf Basis der Bilder, welch durch den Nutzer benennt werden.
Wie unterscheidet es sich von TensorFlow oder PyTorch?
TensorFlow und PyTorch sind Low-Level-Frameworks für Programmierer und Leidenschaftliche. Wenn Sie über ein Forschungs- und Entwicklungsteam verfügen, können Sie diese Tools verwenden, um eine Lösung von Grund auf neu zu erstellen. Es kann einige Tage dauern, bis eine Demo erstellt ist, aber mindestens einige Monate, um ein produktionsfähiges System zu haben, und noch mehr, um die höchstmögliche Leistung zu erzielen. Auf der anderen Seite ist unser Produkt eine Komplettlösung, die in über 100 Projekten vor Ort getestet wurde und die Sie heute selbst verwenden können.
Warum sollte ich Adaptive Vision verwenden, wenn ich ein neuronales Open-Source-Netzwerk verwenden könnte?
Wir bieten Ihnen eine Komplettlösung – sie besteht aus fünf optimierten neuronalen Netzwerkdesigns, aber auch aus: grafischen Tools für einfache Annotation und Schulung von Daten, erweiterten Erweiterungen und automatischem Ausgleich von Trainingsdaten, Mischung aus traditionellen und maschinellen Lernmethoden für die Datenvorverarbeitung, optimiert Speicherverwaltung, Inferenz-Engine für Industrie und GPU in Industriequalität, Tools für die Bereitstellung, technischer Support + Know-how. Wir haben viele Mannjahre damit verbracht, all das zu entwickeln, zu testen und zu optimieren, damit Sie es sofort in Ihr Projekt integrieren können, mit einem relativ kleinen Schulungssatz, mit einer Leistung, die weit über den Open-Source-Frameworks liegt, und zu geringen Kosten gleiche Zeit.
Wie kann ich anfangen?
Laden Sie das Aurora Vision Studio + Deep Learning-Add-on von unserer Website herunter. Dann 30 Tage lang eine Testlizenz anfordern .
Wenn Sie möchten, können Sie sich auch direkt an unseren technischen Support wenden, um die Machbarkeit Ihres Projekts nachzuweisen: support@adaptive-vision.com
.Beim Vorgang mit Überwachung hat der Nutzer Pixel zu markieren, welche die Defekte auf den Trainingsbildern darstellen. Unser Tool lernt, richtige und richtige Merkmale durch die Beobachtung ihrer grundlegenden Eigenschaften zu unterscheiden.
Bei der Inspektion der Solarmodule ist die Aufgabe des Programms, Brüche und Risse an der uneinheitlichen Oberfläche zu erkennen. Die Nutzung der klassischen Methoden würde die Anwendung von komplizierten Algorithmen und Dutzenden Parameter erfordern, welche auf jede Art der Module abgestimmt werden müssten. Beim tiefen Lernen genügt es, das System im Vorgang mit Überwachung zu trainieren und dabei nur ein Tool zu nutzen.
In Hinsicht auf das Vorkommen mehrerer unterschiedlicher Elemente lassen sich die Satellitenbilder schwierig analysieren. Unser Deep Learning Modul kann austrainiert werden, um Straßen und Gebäude mit höchster Präzision zu erkennen. Das Training kann mittels eines richtig markierten Bildes durchgeführt werden, und die Ergebnisse sind sofort überprüfbar. Legen Sie mehr markierte Proben bei, um die Richtigkeit des Modells zu steigern.
Im Vorgang ohne Überwachung ist der Trainingsprozess einfacher. Eine konkrete Definition des Defekts besteht hier nicht: das Tool wird mittels der richtigen Proben trainiert. Auf ihrer Basis werden sämtliche Abweichungen auf geprüften Bildern gezeigt.
Wenn eine Sushi-Packung dem Verkäufer geliefert wird, müssen sich alle Elemente in einer bestimmten Lage befinden. Es ist schwierig, Defekte zu definieren, wenn die Form der richtigen Stücke auch variieren kann. Das Problem lässt sich lösen, indem man das tiefe Lernen ohne Überwachung anwendet, wodurch alle bedeutenden Abweichungen davon erkannt werden, was das Tool im Training gelernt hat.
Das Ausformen im Spritzgussverfahren ist ein komplizierter Prozess, in dessen Ablauf mehrere Probleme entstehen können. Gegenstände, die aus Kunststoff hergestellt werden, können für das Biegen bzw. andere Deformationen anfällig sein, welche für den Kunden akzeptabel sind. Unser Deep Learning Modul kann auf Basis der gelieferten Proben alle akzeptablen Verformungen lernen, und anschließend allerlei Abweichungen an der Produktionsanlage erkennen.
Das Objektklassifizierungswerkzeug unterteilt Eingabebilder in Gruppen, die vom Benutzer entsprechend ihrer besonderen Merkmale erstellt wurden. Als Ergebnis werden der Name einer Klasse und das Klassifizierungsvertrauen angegeben.
Kunststoffkappen können manchmal versehentlich in der Produktionsmaschine umdrehen. Der Kunde möchte diese Situation erkennen. Die Aufgabe kann mit herkömmlichen Methoden erledigt werden, erfordert jedoch einen Experten, um einen bestimmten Algorithmus für diese Anwendung zu entwerfen. Auf der anderen Seite können wir eine Deep-Learning-basierte Klassifizierung verwenden, die automatisch lernt, Vorder- und Rückseite anhand einer Reihe von Trainingsbildern zu erkennen.
In einem Werk können Hunderte verschiedener Leichtmetallradtypen hergestellt werden. Die Identifizierung eines bestimmten Modells mit solchen Modellmengen ist mit herkömmlichen Methoden praktisch unmöglich. Das Anpassen von Vorlagen würde sehr viel Zeit in Anspruch nehmen, um Hunderte von Modellen abzugleichen, während die Herstellung maßgeschneiderter Modelle einfach zu viel Entwicklung und Wartung erfordern würde. Deep Learning ist eine ideale Lösung, die direkt aus Beispielbildern ohne maßgeschneiderte Entwicklung lernt.
Die Instanzsegmentierungstechnik wird verwendet, um einzelne oder mehrere Objekte innerhalb eines Bildes zu lokalisieren, zu segmentieren und zu klassifizieren. Im Gegensatz zur Merkmalerkennungstechnik erkennt diese Technik einzelne Objekte und kann sie möglicherweise trennen, selbst wenn sie sich berühren oder überlappen.
Gemischte Nüsse sind ein sehr beliebtes Snack-Food, das aus verschiedenen Arten von Nüssen besteht. Da die prozentuale Zusammensetzung der Nüsse in einer Packung der Liste der auf der Packung aufgedruckten Zutaten entsprechen muss, möchten die Kunden sicherstellen, dass die richtige Menge an Nüssen jeder Art verpackt wird. Das Instanzsegmentierungswerkzeug ist eine ideale Lösung in einer solchen Anwendung, da es Masken zurückgibt, die den segmentierten Objekten entsprechen.
Ein typischer Satz Suppengrün, der in Europa verwendet wird, wird in zufälliger Position auf einem weißen Plastikteller verpackt. Produktionslinienarbeiter vergessen manchmal versehentlich, eines der Gemüse auf den Teller zu legen. Obwohl es ein System gibt, das die Platten wiegt, möchte der Kunde die Vollständigkeit des Produkts unmittelbar vor dem Versiegelungsprozess überprüfen. Da es keine zwei Gemüse gibt, die gleich aussehen, besteht die Lösung darin, eine auf tiefem Lernen basierende Segmentierung zu verwenden. In der Schulungsphase muss der Kunde lediglich Regionen markieren, die Gemüse entsprechen.
Das Werkzeug Punktposition sucht nach bestimmten Formen, Merkmalen oder Markierungen, die als Punkte in einem Eingabebild identifiziert werden können. Es kann mit dem herkömmlichen Template-Matching verglichen werden, aber hier wird das Tool mit mehreren Samples trainiert und wird robust gegen große Variabilität der interessierenden Objekte.
Die Aufgabe, die mit herkömmlichen Bildverarbeitungsmethoden unmöglich zu erfüllen scheint, kann mit unserem neuesten Tool erledigt werden. In diesem Fall verwenden wir es, um Bienen zu erkennen. Wenn dies erledigt ist, können wir überprüfen, ob sie durch Varroose infiziert sind - die Krankheit, die durch die parasitären Milben verursacht wird, die die Honigbienen angreifen. Der Parasit bindet sich an ihren Körper und aufgrund einer charakteristischen roten Entzündung können wir ihn nach seinem Gesundheitszustand klassifizieren. Dieses Beispiel zeigt nicht nur, dass es eine einfache Lösung für eine komplexe Aufgabe ist, sondern dass wir auch für viele verschiedene Industriezweige offen sind, z. Landwirtschaft.
In diesen Anwendungen müssen wir einen Roboterarm führen, um Gegenstände aufzunehmen, typischerweise von einem Förderband oder von einem Behälter. Ein gutes Beispiel für eine solche Anwendung ist das Pflücken kleiner Stecklinge und das vertikale Einsetzen in Töpfe. Ungenauigkeiten bei der Erkennung können dazu führen, dass sie zu tief oder verkehrt herum gepflanzt werden, was dazu führt, dass Stecklinge keine Wurzeln bilden. Unsere Deep-Learning-Tools ermöglichen es, die gewünschten Pflanzenteile schnell zu lokalisieren und genaue Ergebnisse zu liefern, die für diesen Vorgang erforderlich sind.