Mikroprocesor – układ cyfrowy wykonany jako pojedynczy układ scalony o wielkim stopniu integracji (ULSI) zdolny do wykonywania operacji cyfrowych według dostarczonego ciągu instrukcji.
Mikroprocesor łączy funkcje centralnej jednostki obliczeniowej (CPU) w pojedynczym półprzewodnikowym układzie scalonym. Pierwszy mikroprocesor działał w oparciu o słowa 4-bitowe.
Mikroprocesor umożliwił rozwój mikrokomputerów w połowie lat 70. XX w. Przed tym okresem, elektroniczne CPU były konstruowane z zajmujących wiele miejsca układów scalonych małej skali integracji. Poprzez zintegrowanie procesora w jeden lub kilka układów scalonych o coraz wyższej skali integracji (zawierających odpowiednik tysięcy lub milionów tranzystorów), stosunek możliwości do ceny procesora znacząco wzrósł. Od połowy lat siedemdziesiątych, dzięki intensywnemu rozwojowi układów scalonych, mikroprocesor stał się najbardziej rozpowszechnioną formą CPU, prawie całkowicie zastępując wszystkie inne.
Ewolucję mikroprocesora dobrze opisuje prawo Moore’a mówiące o wzroście wydajności na przestrzeni lat. Mówi ono, że złożoność układów scalonych (liczba tranzystorów), przy zachowaniu minimalnego kosztu składników, będzie się podwajać co 18 miesięcy. Stwierdzenie to zachowuje prawdziwość od czasu wczesnych lat 70. Począwszy od układów porównywalnych z prostymi kalkulatorami, mikroprocesory osiągały coraz wyższą moc obliczeniową, co w rezultacie doprowadziło do ich dominacji nad każdą inną formą komputera.[1]