Droit du travail en France


Wikipédia en français - L'encyclopédie libreDownload this dictionary
Droit du travail en France
Le droit du travail est une branche du droit social qui régit les relations entre les employeurs et les salariés sous la forme du contrat de travail. En France, ces relations sont caractérisées par l'existence d'un lien de subordination juridique des salariés à leurs employeurs. Dès lors, le droit du travail a pour objet d'encadrer cette subordination et de limiter le déséquilibre entre les parties au contrat de travail. Les règles du droit du travail ne s'appliquent pas aux agents titulaires et contractuels de droit public, et aux travailleurs indépendants.

Pour la suite, voir Wikipédia.org…


© Cet article se sert du contenu de Wikipédia® et est autorisé sous les termes de la Licence de Documentation libre GNU et est distribué sous les termes de la licence Creative Commons Paternité-Partage des Conditions Initiales à l'Identique 3.0 non transposé.