Transinformation oder
gegenseitige Information ist eine Größe aus der
Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier
Zufallsgrößen angibt. Die Transinformation wird auch als
Synentropie bezeichnet. Im Gegensatz zur Synentropie einer
Markov-Quelle erster Ordnung, welche die
Redundanz einer Quelle zum Ausdruck bringt und somit minimal sein soll, stellt die Synentropie eines Kanals den mittleren
Informationsgehalt dar, der vom Sender zum Empfänger gelangt und soll somit maximal sein.