Die
Dekolonisation Afrikas bezeichnet den Abzug der europäischen
Kolonialmächte aus
Afrika. Die
Dekolonisation (auch
Entkolonisierung genannt) setzte in Afrika nach dem
Zweiten Weltkrieg ein (obwohl es vorher schon einzelne unabhängige afrikanische Staaten gegeben hatte) und endete 1976. Sie bedeutete das Ende der
kolonialen Ära weltweit.