Strona www.adaptive-vision.com używa plików cookie do obsługi użytkowników oraz do celów statystycznych.
Zgodnie z nowymi przepisami mamy obowiązek Państwa o tym poinformować.
Szczegółowe informacje znajdą Państwo w naszej polityce prywatności.

Zamknij tę informację
POL ENG GER 中文(繁體) 中文(简体)

Deep Learning dla systemów wizyjnych


Wprowadzenie

Moduł Deep Learning to przełomowa technologia na rynku systemów wizyjnych. Oferujemy zestaw pięciu gotowych do użycia narzędzi, które trenuje się 20-50 przykładami i które potem automatycznie wykrywają obiekty, defekty lub cechy. Wewnętrznie moduł korzysta z głębokich sieci neuronowych zaprojektowanych i zoptymalizowanych przez naszych ekspertów do użycia w przemysłowych systemach wizyjnych.

W połączeniu z Aurora Vision Studio otrzymujesz kompletne rozwiązanie do trenowania i wdrażania najnowocześniejszych rozwiązań wizyjnych.

Dlaczego deep learning od Adaptive Vision?

  1. Otrzymujesz kompletne środowisko do trenowania modeli i tworzenia aplikacji.
  2. To wszystko bez programowania – wgraj obrazy, dodaj etykiety i naciśnij "Trenuj".
  3. Wykonanie sieci następuje za pomocą silnika dedukcyjnego WEAVER, który zapewnia maksymalną wydajności na GPU i CPU.
  4. BONUS: Dane do trenowania możesz także przygotować za pomocą wygodnego narzędzia online, Zillin.

Kluczowe fakty

Trening z małą liczbą próbek

Typowy program wymaga od 20 do 50 obrazów treningowych. Im więcej tym lepiej, ale nasze oprogramowanie uczy się charakteru danych i generuje tysiące sztucznych próbek w celu maksymalizacji efektywności treningu.

Działa na GPU i CPU

GPU z górnej półki jest potrzebne do sprawnego trenowania, ale wersja produkcyjna może działać zarówno z GPU jak i z CPU. GPU zazwyczaj działa 3-10 razy szybciej (z wyjątkiem klasyfikacji obiektów, która jest równie szybka na CPU).

Najwyższa wydajność

Zakładając użycie GPU, standardowy czas trenowania wynosi 5-15 minut. Czas wykonania waha się w zależności od projektu od 5 do 100 ms na obraz. Wysoką szybkość wykonania zapewnia WEAVER, silnik dedukcyjny stworzony dla przemysłu.

Proces trenowania

1. Zbierz i znormalizuj obrazy

    • Uzyskaj 20 - 50 obrazów pokazujących poprawne i niepoprawne przykłady i reprezentujących wszystkie możliwe wariacje obiektów; zachowaj je na dysku.
    • Zadbaj o to, aby skala, orientacja oraz oświetlenie obiektów były jak najbardziej jednolite.
  • 2. Trenowanie

    • Użyj narzędzia z modułu Deep Learning.
    • Otwórz edytor Deep Learning.
    • Załaduj obrazy treningowe.
    • Oznacz obrazy jako poprawne lub niepoprawne (tryb nienadzorowany), lub oznacz defekty narzędziami do rysowania (tryb nadzorowany).
    • Kliknij “Trenuj”.
  • Dane treningowe i walidacyjne

    W uczeniu głębokim, tak jak w pozostałych gałęziach uczenia maszynowego, stosowanie poprawnej metodologii jest niezwykle istotne. Najważniejszą zasadą jest oddzielenie danych treningowych od danych walidacyjnych. Dane treningowe to zestaw obrazów wykorzystany do trenowania modelu. Dane te nie mogą być wykorzystane do mierzenia wydajności modelu, jako że często rezultatem takiego postępowania są nierealistycznie dobre wyniki. Konieczne jest zatem użycie osobnego zbioru danych - danych walidacyjnych - do poprawnej oceny modelu. Nasze narzędzie głębokiego uczenia automatycznie tworzy oba zbiory danych na podstawie obrazów wskazanych przez użytkownika.

    3. Wykonaj

    • Uruchom program i zweryfikuj wyniki.
    • Potwórz od punktu 1. lub 2. dopóki wyniki nie są satysfakcjonujące.
  • Dowiedz się więcej o Deep Learning Add-on!

    Pobierz broszurę Dokumentacja Silnik wykonawczy WEAVER

    FAQ

    Czym wasz Deep Learning Add-on różni się od TensorFlow i PyTorch'a?

    TensorFlow and PyTorch to niskopoziomowe frameworki dla programistów i pasjonatów. Jeśli masz do dyspozycji zespół badawczo-rozwojowy, możesz ich użyć do utworzenia rozwiązania od podstaw. Już w ciągu kilku dni możesz utworzyć demo, ale przynajmniej kilka mięsięcy pracy jest potrzebne by utworzyć system producyjny; i jeszcze więcej aby uzyskać maksymalną możliwą wydajność. Z drugiej strony dzięki współpracy z nami możesz skorzystać z gotowego produktu i zrobić wdrożenie od razu.

    Co daje mi Adaptive Vision, czego nie mogę osiągnąć z siecią typu open-source?

    Oferujemy Ci gotowe rozwiązanie – w jego skład wchodzi nie tylko pięć zoptymalizowanych architektur sieci neuronowych, ale także: graficzne narzędzia do oznaczania danych i prowadzenia treningu, zaawansowane augmentacje i automatyczne balansowanie danych treningowych, miks klasycznych metod i uczenia maszynowego na etapie wstępnego przetworzenia danych, zoptymalizowane zarządzanie pamięcią, przemysłowy silnik wykonawczy dla CPU i GPU, środowisko wdrożeniowe, wsparcie techniczne + know-how. Spędziliśmy wiele osobo-lat na rozwijaniu, testowaniu i dopracowywaniu tego wszystkiego abyś mógł wdrożyć u siebie gotowe rozwiązanie natychmiast, z rozsądnie małym zbiorem treningowym, z wydajnością dużo wyższą niż zapewniają ogólnodostępne sieci i przy niskich kosztach.

    Jak zacząć?

    Ściągnij Aurora Vision Studio + Deep Learning Add-on z naszej strony, a następnie wypełnij formularz prośby o testową licencję na 30 dni.

    Możesz również od razu skontaktować się z naszym wsparciem technicznym, żeby zweryfikować wykonywalność projektu: support@adaptive-vision.com

    .

    Detekcja cech

    W trybie nadzorowanym użytkownik musi dokładnie oznaczyć piksele odpowiadające defektom obrazów treningowych. Narzędzie uczy się odróżniać cechy dobre i złe, szukając ich kluczowych cech charakterystycznych.

    Przykłady zastosowania

    Inspekcja paneli fotowoltaicznych

    Podczas inspekcji paneli słonecznych program ma za zadanie wykrycie pęknięć i rys na niejednorodnej powierzchni. Przy użyciu klasycznych metod wymagałoby to zastosowania skomplikowanych algorytmów i dziesiątek parametrów, które należałoby dostrajać do każdego rodzaju paneli. W przypadku uczenia głębokiego wystarczy wytrenować system w trybie nadzorowanym, używając tylko jednego narzędzia.

    Segmentacja obrazów satelitarnych

    Zdjęcia satelitarne są trudne do analizy ze względu na obecność wielu różnych elementów. Nasz moduł Deep Learning może zostać wytrenowany, aby bardzo precyzyjnie wykrywać drogi i budynki. Trenowanie może być przeprowadzone za pomocą tylko jednego poprawnie oznaczonego obrazu, a wyniki można zweryfikować natychmiast. Dodaj więcej oznaczonych próbek, aby zwiększyć poprawność modelu.

    Detekcja anomalii

    W trybie nienadzorowanym trening jest prostszy. Nie ma bezpośredniej definicji defektu – narzędzie jest szkolone za pomocą dobrych próbek, a następnie szuka wszelkiego rodzaju odchyleń.

    Przykłady zastosowania

    Weryfikacja opakowań

    Kiedy opakowanie z sushi jest dostarczone do sprzedawcy, wszystkie elementy muszą znajdować się w określonych miejscach. Defekty są trudne do zdefiniowania kiedy kształt poprawnych sztuk również może się zmieniać. Można ten problem rozwiązać stosując uczenie głębokie w trybie nienadzorowanym, który wykrywa wszystkie znaczące odchylenia od tego czego narzędzie nauczyło się podczas trenowania.

    Plastiki, formy wtryskowe

    Formowanie wtryskowe to skomplikowany proces, na drodze którego może wystąpić wiele problemów. Obiekty wykonane z plastiku mogą być podatne na zginanie lub inne deformacje, które są akceptowalne dla klienta. Nasz moduł Deep Learning potrafi nauczyć się wszystkich akceptowalnych zniekształceń na podstawie dostarczonych próbek, a następnie może wykryć odchylenia wszelkiego typu na linii produkcyjnej.

    Klasyfikacja obiektów

    Narzędzie do klasyfikacji obiektów dzieli obrazy wejściowe na grupy utworzone przez użytkownika zgodnie z ich konkretnymi cechami. W rezultacie otrzymuje się nazwę klasy i pewność klasyfikacji.

    Przykłady zastosowania

    Nakrętki: przód czy tył

    Plastikowe nakrętki mogą czasami przypadkowo przewrócić się na maszynie produkcyjnej. Klient chce wykryć tę sytuację. Zadanie można wykonać tradycyjnymi metodami, ale wymaga od eksperta zaprojektowania konkretnego algorytmu dla tej aplikacji. Z drugiej strony możemy użyć klasyfikacji opartej na głębokim uczeniu się, która automatycznie uczy się rozpoznawać przód i tył z zestawu zdjęć treningowych.


    Identyfikacja felg aluminiowych w 3D

    W jednej fabryce mogą być wytwarzane setki różnych rodzajów felg aluminiowych. Identyfikacja konkretnego modelu z takimi ilościami modeli jest praktycznie niemożliwa przy tradycyjnych metodach. Dopasowanie wzorca wymagałoby ogromnej ilości czasu, próbując dopasować setki modeli, podczas gdy ręczne tworzenie modeli na zamówienie wymagałoby po prostu zbyt dużego rozwoju i konserwacji. Deep Learning jest idealnym rozwiązaniem, które uczy się bezpośrednio z przykładowych zdjęć bez opracowywania na zamówienie.

    Segmentacja instancji

    Technika segmentacji instancji jest używana do lokalizowania, segmentowania i klasyfikowania pojedynczych lub wielu obiektów na obrazie. W przeciwieństwie do techniki detekcji cech ta technika wykrywa poszczególne obiekty i może być w stanie je rozdzielić, nawet jeśli się stykają lub nakładają.

    Przykłady zastosowania

    Segmentacja orzechów

    Mieszanka orzechów to bardzo popularna przekąska składająca się z różnych rodzajów orzechów. Ponieważ procentowy skład orzechów w opakowaniu powinien być zgodny z listą składników wydrukowanych na opakowaniu, klienci chcą mieć pewność, że odpowiednia ilość orzechów każdego typu zostanie zapakowana. Narzędzie segmentacji instancji jest idealnym rozwiązaniem w takiej aplikacji, ponieważ zwraca maski odpowiadające segmentowanym obiektom.

    Weryfikacja opakowania

    Typowy zestaw włoszczyzny stosowany w Europie jest pakowany na białej plastikowej tacce w przypadkowej pozycji. Pracownicy linii produkcyjnej mogą czasami przypadkowo zapomnieć umieścić jedno z warzyw na niej. Chociaż istnieje system ważący tacki, klient chce sprawdzić kompletność produktu tuż przed procesem zgrzewania. Ponieważ nie ma dwóch warzyw, które wyglądają tak samo, rozwiązaniem jest zastosowanie segmentacji opartej na głębokim uczeniu się. W fazie treningowej klient musi tylko oznaczyć regiony odpowiadające warzywom.

    Lokalizacja punktów

    Narzędzie lokalizacji punktów wyszukuje określone kształty, cechy lub znaki, które można zidentyfikować jako punkty obrazu wejściowego. Można je porównać do tradycyjnego dopasowywania szablonów, ale tutaj narzędzie jest szkolone z wieloma próbkami i staje się odporne na ogromną zmienność obiektów będących przedmiotem zainteresowania.

    Przykłady zastosowania

    Śledzenie pszczół

    Zadanie, które wydaje się niemożliwe do osiągnięcia przy użyciu tradycyjnych metod przetwarzania obrazów, można wykonać za pomocą naszego najnowszego narzędzia. W tym przypadku używamy go do wykrywania pszczół. Kiedy to zrobimy, możemy sprawdzić, czy są zarażone warrozą - chorobą wywoływaną przez pasożytnicze roztocza atakujące pszczoły miodne. Pasożyt przyczepia się do ich ciał i na podstawie charakterystycznego czerwonego zapalenia możemy je sklasyfikować zgodnie z ich stanem zdrowia. Ten przykład pokazuje nie tylko, że jest to łatwe rozwiązanie dla złożonego zadania, ale także, że jesteśmy otwarci na wiele różnych gałęzi przemysłu, np. przemysł rolniczy.

    Pick and Place

    W tego rodzaju aplikacjach musimy tak pokierować ramieniem robota, aby odpowiednio podnieść i przenieść obiekty z przenośnika taśmowego lub pojemnika na zadane miejsce. Dobrym przykładem wykorzystania tego rozwiązania jest podnoszczenie przez robota małych sadzonek, a następnie umieszczanie ich pionowo w doniczkach. Wszelkie niedokładności w wykrywaniu pozycji mogą skutkować zbyt głębokim lub w odwrotnym posadzeniem roślin, co w konsekwencji może uniemożliwiść wypuszczenie korzeni przez sadzonki. Nasze narzędzia oparte na głębokich sieciach neuronowych umożliwiają szybkie zlokalizowanie pożądanych części roślin, zapewniają również należytą dokładność niezbędną przy tego rodzaju operacjach.


    Gdzie kupić Deep Learning Add-on? Otrzymaj licencję testową