Weltpolitik bezeichnet im Besonderen die deutsche Außen- und Kolonialpolitik im Zeitalter des
Imperialismus. In einem allgemeinen Sinne können darunter auch alle politischen Vorgänge in der
internationalen Politik insgesamt und der Versuch, auf all diese Vorgänge entscheidenden Einfluss zu nehmen, verstanden werden.