Overblog Suivre ce blog
Editer l'article Administration Créer mon blog

Publié par Jean-Marc Bouet

Le droit du travail en France

Le droit du travail est une branche du droit social qui régit les relations entre les employeurs et les salariés sous la forme du contrat de travail. En France, ces relations sont caractérisées par l'existence d'un lien de subordination juridique des salariés à leurs employeurs. Dès lors, le droit du travail a pour objet d'encadrer cette subordination et de limiter le déséquilibre entre les parties au contrat de travail. Les règles du droit du travail ne s'appliquent pas aux agents titulaires et contractuels de droit public, et aux travailleurs indépendants.

Le droit du travail comporte certains enjeux politiques, économiques et sociaux. En déterminant les conditions d'emploi actuelles des salariés, le droit du travail exerce une influence sur le marché de l'emploi présent et à venir. Il exerce également une influence sur la compétitivité économique des entreprises et de l'économie nationale. Le problème d'une réforme du droit du travail, de son éventualité et de ses modalités suscite de nombreux débats.

Pour être informé des derniers articles, inscrivez vous :

Commenter cet article