Le droit social est l'ensemble des normes juridiques qui régissent les relations entre un employeur et un travailleur.

Le droit social encadre notamment la formation, l'exécution et la rupture du contrat de travail.

Il garantit également le respect des libertés syndicales et des normes de sécurité au travail, et la protection des travailleurs vulnérables.

En France, le but du droit social est de rétablir l'équilibre entre le salarié et l'employeur.

En effet, le salarié ayant besoin de revenus pour vivre, la relation contractuelle entre le salarié et l'employeur est largement favorable à l'employeur.

Le droit social est donc un droit partisan.