Robiłem kiedyś podobny projekt i relalizacją mniej więcej wyglądała następująco:
1a. Liczyłem średnią koloru w obrazku, następnie zamieniałem wszystko pod średnią na biały, nad średnią na czarny - w roli filtru kolorów przeszkadzajek itd itp, ale nie sprawdza się to przy tłach obrazkowych
1b. Próbowaliśmy również pomyśleć nad sposobem przejścia co jakiś tam kolor istniejący w grafice; każde przejście odbywało się na zasadzie skanowania z lewo na prawo, czy istnieją w miarę równe luki (odchylenie standardowe) - w roli spacji
2. Dzielimy podobną metodą jak w 1b na bloki w których coś jest - prawdopodobnie będą to litery
3a. Skanujemy każdą z liter na podstawie własnych wzorców np. powiększając nasz wzór do wielkości wyciętego fragmentu obrazka; następnie sprawdzaliśmy część wspólną tych tablic; litera ze wzoru, która miała najwięcej pikseli wspólnych oznaczała dla nas rozpoznanie litery, ale tylko gdy miała więcej niż 90% trafień
3b. Operacją alternatywną do 3a, czyli trochę bardziej trudną było wrzucenie wszystkiego do mechanizmu fann. To jest, nauczenie wygenerowanej przez nas maszyny inteligentnej wzorów na podstawie wzorca 7x5 pikseli; zmniejszenie litery z punktu 2 do takiej wielkości i podanie jej mechanizmowi sztucznej inteligencji do rozpoznania. Ten mechanizm opisany w tym podpunkcie można zobaczyć na
http://musk.quadina.pl/ odpowiednio zaznaczając checkboxami literkę na całej płaszczyźnie.
EDIT: własnie zauważyłem, że link nie działa - postaram się go w ciągu kilku godzin uruchomić.