Moduł Deep Learning to przełomowa technologia na rynku systemów wizyjnych. Oferujemy zestaw pięciu gotowych do użycia narzędzi, które trenuje się 20-50 przykładami i które potem automatycznie wykrywają obiekty, defekty lub cechy. Wewnętrznie moduł korzysta z głębokich sieci neuronowych zaprojektowanych i zoptymalizowanych przez naszych ekspertów do użycia w przemysłowych systemach wizyjnych.
W połączeniu z Aurora Vision Studio otrzymujesz kompletne rozwiązanie do trenowania i wdrażania najnowocześniejszych rozwiązań wizyjnych.
Dlaczego deep learning od Adaptive Vision?
Typowy program wymaga od 20 do 50 obrazów treningowych. Im więcej tym lepiej, ale nasze oprogramowanie uczy się charakteru danych i generuje tysiące sztucznych próbek w celu maksymalizacji efektywności treningu.
GPU z górnej półki jest potrzebne do sprawnego trenowania, ale wersja produkcyjna może działać zarówno z GPU jak i z CPU. GPU zazwyczaj działa 3-10 razy szybciej (z wyjątkiem klasyfikacji obiektów, która jest równie szybka na CPU).
Zakładając użycie GPU, standardowy czas trenowania wynosi 5-15 minut. Czas wykonania waha się w zależności od projektu od 5 do 100 ms na obraz. Wysoką szybkość wykonania zapewnia WEAVER, silnik dedukcyjny stworzony dla przemysłu.
W uczeniu głębokim, tak jak w pozostałych gałęziach uczenia maszynowego, stosowanie poprawnej metodologii jest niezwykle istotne. Najważniejszą zasadą jest oddzielenie danych treningowych od danych walidacyjnych. Dane treningowe to zestaw obrazów wykorzystany do trenowania modelu. Dane te nie mogą być wykorzystane do mierzenia wydajności modelu, jako że często rezultatem takiego postępowania są nierealistycznie dobre wyniki. Konieczne jest zatem użycie osobnego zbioru danych - danych walidacyjnych - do poprawnej oceny modelu. Nasze narzędzie głębokiego uczenia automatycznie tworzy oba zbiory danych na podstawie obrazów wskazanych przez użytkownika.
Czym wasz Deep Learning Add-on różni się od TensorFlow i PyTorch'a?
TensorFlow and PyTorch to niskopoziomowe frameworki dla programistów i pasjonatów. Jeśli masz do dyspozycji zespół badawczo-rozwojowy, możesz ich użyć do utworzenia rozwiązania od podstaw. Już w ciągu kilku dni możesz utworzyć demo, ale przynajmniej kilka mięsięcy pracy jest potrzebne by utworzyć system producyjny; i jeszcze więcej aby uzyskać maksymalną możliwą wydajność. Z drugiej strony dzięki współpracy z nami możesz skorzystać z gotowego produktu i zrobić wdrożenie od razu.
Co daje mi Adaptive Vision, czego nie mogę osiągnąć z siecią typu open-source?
Oferujemy Ci gotowe rozwiązanie – w jego skład wchodzi nie tylko pięć zoptymalizowanych architektur sieci neuronowych, ale także: graficzne narzędzia do oznaczania danych i prowadzenia treningu, zaawansowane augmentacje i automatyczne balansowanie danych treningowych, miks klasycznych metod i uczenia maszynowego na etapie wstępnego przetworzenia danych, zoptymalizowane zarządzanie pamięcią, przemysłowy silnik wykonawczy dla CPU i GPU, środowisko wdrożeniowe, wsparcie techniczne + know-how. Spędziliśmy wiele osobo-lat na rozwijaniu, testowaniu i dopracowywaniu tego wszystkiego abyś mógł wdrożyć u siebie gotowe rozwiązanie natychmiast, z rozsądnie małym zbiorem treningowym, z wydajnością dużo wyższą niż zapewniają ogólnodostępne sieci i przy niskich kosztach.
Jak zacząć?
Ściągnij Aurora Vision Studio + Deep Learning Add-on z naszej strony, a następnie wypełnij formularz prośby o testową licencję na 30 dni.
Możesz również od razu skontaktować się z naszym wsparciem technicznym, żeby zweryfikować wykonywalność projektu: support@adaptive-vision.com
.W trybie nadzorowanym użytkownik musi dokładnie oznaczyć piksele odpowiadające defektom obrazów treningowych. Narzędzie uczy się odróżniać cechy dobre i złe, szukając ich kluczowych cech charakterystycznych.
Podczas inspekcji paneli słonecznych program ma za zadanie wykrycie pęknięć i rys na niejednorodnej powierzchni. Przy użyciu klasycznych metod wymagałoby to zastosowania skomplikowanych algorytmów i dziesiątek parametrów, które należałoby dostrajać do każdego rodzaju paneli. W przypadku uczenia głębokiego wystarczy wytrenować system w trybie nadzorowanym, używając tylko jednego narzędzia.
Zdjęcia satelitarne są trudne do analizy ze względu na obecność wielu różnych elementów. Nasz moduł Deep Learning może zostać wytrenowany, aby bardzo precyzyjnie wykrywać drogi i budynki. Trenowanie może być przeprowadzone za pomocą tylko jednego poprawnie oznaczonego obrazu, a wyniki można zweryfikować natychmiast. Dodaj więcej oznaczonych próbek, aby zwiększyć poprawność modelu.
W trybie nienadzorowanym trening jest prostszy. Nie ma bezpośredniej definicji defektu – narzędzie jest szkolone za pomocą dobrych próbek, a następnie szuka wszelkiego rodzaju odchyleń.
Kiedy opakowanie z sushi jest dostarczone do sprzedawcy, wszystkie elementy muszą znajdować się w określonych miejscach. Defekty są trudne do zdefiniowania kiedy kształt poprawnych sztuk również może się zmieniać. Można ten problem rozwiązać stosując uczenie głębokie w trybie nienadzorowanym, który wykrywa wszystkie znaczące odchylenia od tego czego narzędzie nauczyło się podczas trenowania.
Formowanie wtryskowe to skomplikowany proces, na drodze którego może wystąpić wiele problemów. Obiekty wykonane z plastiku mogą być podatne na zginanie lub inne deformacje, które są akceptowalne dla klienta. Nasz moduł Deep Learning potrafi nauczyć się wszystkich akceptowalnych zniekształceń na podstawie dostarczonych próbek, a następnie może wykryć odchylenia wszelkiego typu na linii produkcyjnej.
Narzędzie do klasyfikacji obiektów dzieli obrazy wejściowe na grupy utworzone przez użytkownika zgodnie z ich konkretnymi cechami. W rezultacie otrzymuje się nazwę klasy i pewność klasyfikacji.
Plastikowe nakrętki mogą czasami przypadkowo przewrócić się na maszynie produkcyjnej. Klient chce wykryć tę sytuację. Zadanie można wykonać tradycyjnymi metodami, ale wymaga od eksperta zaprojektowania konkretnego algorytmu dla tej aplikacji. Z drugiej strony możemy użyć klasyfikacji opartej na głębokim uczeniu się, która automatycznie uczy się rozpoznawać przód i tył z zestawu zdjęć treningowych.
W jednej fabryce mogą być wytwarzane setki różnych rodzajów felg aluminiowych. Identyfikacja konkretnego modelu z takimi ilościami modeli jest praktycznie niemożliwa przy tradycyjnych metodach. Dopasowanie wzorca wymagałoby ogromnej ilości czasu, próbując dopasować setki modeli, podczas gdy ręczne tworzenie modeli na zamówienie wymagałoby po prostu zbyt dużego rozwoju i konserwacji. Deep Learning jest idealnym rozwiązaniem, które uczy się bezpośrednio z przykładowych zdjęć bez opracowywania na zamówienie.
Technika segmentacji instancji jest używana do lokalizowania, segmentowania i klasyfikowania pojedynczych lub wielu obiektów na obrazie. W przeciwieństwie do techniki detekcji cech ta technika wykrywa poszczególne obiekty i może być w stanie je rozdzielić, nawet jeśli się stykają lub nakładają.
Mieszanka orzechów to bardzo popularna przekąska składająca się z różnych rodzajów orzechów. Ponieważ procentowy skład orzechów w opakowaniu powinien być zgodny z listą składników wydrukowanych na opakowaniu, klienci chcą mieć pewność, że odpowiednia ilość orzechów każdego typu zostanie zapakowana. Narzędzie segmentacji instancji jest idealnym rozwiązaniem w takiej aplikacji, ponieważ zwraca maski odpowiadające segmentowanym obiektom.
Typowy zestaw włoszczyzny stosowany w Europie jest pakowany na białej plastikowej tacce w przypadkowej pozycji. Pracownicy linii produkcyjnej mogą czasami przypadkowo zapomnieć umieścić jedno z warzyw na niej. Chociaż istnieje system ważący tacki, klient chce sprawdzić kompletność produktu tuż przed procesem zgrzewania. Ponieważ nie ma dwóch warzyw, które wyglądają tak samo, rozwiązaniem jest zastosowanie segmentacji opartej na głębokim uczeniu się. W fazie treningowej klient musi tylko oznaczyć regiony odpowiadające warzywom.
Narzędzie lokalizacji punktów wyszukuje określone kształty, cechy lub znaki, które można zidentyfikować jako punkty obrazu wejściowego. Można je porównać do tradycyjnego dopasowywania szablonów, ale tutaj narzędzie jest szkolone z wieloma próbkami i staje się odporne na ogromną zmienność obiektów będących przedmiotem zainteresowania.
Zadanie, które wydaje się niemożliwe do osiągnięcia przy użyciu tradycyjnych metod przetwarzania obrazów, można wykonać za pomocą naszego najnowszego narzędzia. W tym przypadku używamy go do wykrywania pszczół. Kiedy to zrobimy, możemy sprawdzić, czy są zarażone warrozą - chorobą wywoływaną przez pasożytnicze roztocza atakujące pszczoły miodne. Pasożyt przyczepia się do ich ciał i na podstawie charakterystycznego czerwonego zapalenia możemy je sklasyfikować zgodnie z ich stanem zdrowia. Ten przykład pokazuje nie tylko, że jest to łatwe rozwiązanie dla złożonego zadania, ale także, że jesteśmy otwarci na wiele różnych gałęzi przemysłu, np. przemysł rolniczy.
W tego rodzaju aplikacjach musimy tak pokierować ramieniem robota, aby odpowiednio podnieść i przenieść obiekty z przenośnika taśmowego lub pojemnika na zadane miejsce. Dobrym przykładem wykorzystania tego rozwiązania jest podnoszczenie przez robota małych sadzonek, a następnie umieszczanie ich pionowo w doniczkach. Wszelkie niedokładności w wykrywaniu pozycji mogą skutkować zbyt głębokim lub w odwrotnym posadzeniem roślin, co w konsekwencji może uniemożliwiść wypuszczenie korzeni przez sadzonki. Nasze narzędzia oparte na głębokich sieciach neuronowych umożliwiają szybkie zlokalizowanie pożądanych części roślin, zapewniają również należytą dokładność niezbędną przy tego rodzaju operacjach.