16-bitowe mikrokontrolery są potężniejsze niż 8-bitowe, a 32-bitowe są na zupełnie innym poziomie. Mając to na uwadze, chociaż możemy zdecydować, jakich urządzeń peryferyjnych potrzebujemy do aplikacji i spróbować znaleźć najtańszą (i łatwą w użyciu, tj. Łańcuch narzędzi) alternatywę, skąd wiadomo, czy do aplikacji powinien być używany 8-bitowy mikrokontroler albo 16-bitowy czy 32-bitowy?
Rozumiem różnice między nimi, więc postawię pytanie w inny sposób.
Powiedzmy, że mam aplikację w który będę miał wyświetlacz LCD służący do wyświetlania obrazu bitmapowego, 16-klawiszową klawiaturę, brzęczyk, czujnik temperatury i wilgotności oraz wejście myszy. Wysokiej klasy 8-bitowy mikrokontroler może z łatwością wykonywać wszystkie te czynności w czasie rzeczywistym. Teraz, jeśli przejdę na kolorowy wyświetlacz LCD, być może będę potrzebował 32-bitowego mikrokontrolera, który może wystarczająco szybko zaktualizować kolorowy wyświetlacz i ma więcej pamięci. Jednak mogę się dowiedzieć, że mój wysokiej klasy 8-bitowy mikrokontroler jest słaby dopiero po wypróbowaniu go w projekcie.
Więc zanim zaczniemy pracę nad projektem, skąd mamy wiedzieć, jaki rozmiar i ile potężnego mikrokontrolera jest potrzebne do projektu?