Tokenizer


Deutschsprachige Wikipedia - Die freie EnzyklopädieDownload this dictionary
Tokenizer
Ein Tokenizer (auch lexikalischer Scanner, kurz Lexer) ist ein Computerprogramm zur Zerlegung von Plain text (zum Beispiel Quellcode) in Folgen von logisch zusammengehörigen Einheiten, so genannte Token . Als solcher ist er oft Teil eines Compilers.

Mehr unter Wikipedia.org...


© Dieser Eintrag beinhaltet Material aus Wikipedia® und ist lizensiert auf GNU-Lizenz für freie Dokumentation und Creative Commons Attribution-ShareAlike License