Podziel cokolwiek, niedawno opublikowany przez Facebook Research, robi coś, co większość ludzi zanurzonych w widzeniu komputerowym uważa za zniechęcające: niezawodnie wie, które piksele na obrazie należą do obiektu. Ułatwienie tego jest celem Segment Anything Model (SAM), który został niedawno wydany na licencji Apache 2.0.
Wyniki wyglądają świetnie i są Dostępna prezentacja interaktywna Możesz bawić się różnymi sposobami działania SAM. Można wybrać rzeczy, wskazując i klikając obraz, lub obrazy można podzielić automatycznie. Szczerze mówiąc, to imponujące, że SAM sprawia, że maskowanie różnych obiektów na obrazie wydaje się tak łatwe. Umożliwia to uczenie maszynowe, a częścią tego jest fakt, że model stojący za systemem został przeszkolony na ogromnym zbiorze danych wysokiej jakości obrazów i masek, co czyni go niezwykle wydajnym w tym, co robi.
Po podzieleniu obrazu maski te mogą być używane do interakcji z innymi systemami, takimi jak wykrywanie obiektów (które identyfikują i oznaczają, czym jest obiekt) oraz inne aplikacje komputerowe. W końcu ten system działa silniej, jeśli rzeczywiście wiedzą, gdzie szukać. Ten Post na blogu od Meta AI Wchodzi w dodatkowe szczegóły na temat tego, co jest możliwe z SAM, pełne szczegóły w dokument badawczy.
Takie systemy opierają się na wysokiej jakości zbiorach danych. Oczywiście nic nie przebije całej masy rzeczywistych danych, ale widzieliśmy również, że możliwe jest generowanie zautomatyzowanych danych, które w rzeczywistości nie istniały, i uzyskiwanie użytecznych wyników.