El derecho positivo es el conjunto de normas jurídicas escritas por una soberanía (por el órgano estatal que ejerza la función legislativa).
El derecho positivo puede ser de aplicación vigente o no vigente, dependiendo si la norma rige para una población determinada, o la norma ya ha sido derogada por la promulgación de una posterior.
No solo se considera derecho positivo a la ley, sino además a toda norma jurídica que se encuentre escrita (decretos, acuerdos, reglamentos, etc.).[1]
En otras palabras, el derecho positivo es el derecho que está escrito. A diferencia del derecho natural (inherente al ser humano) y del consuetudinario (dictado por las costumbres y usos), el derecho positivo es impuesto colectivamente a favor de normar la convivencia de las personas, sancionado por las instituciones del Estado conforme a lo establecido en un código común —un cuerpo de leyes escritas— que, a su vez, pueden ser cambiadas por consenso. Se trata de leyes fundamentadas en un pacto jurídico y social.[2]