Significado de la responsabilidad social

      Comentarios desactivados en Significado de la responsabilidad social

La responsabilidad social es cuando las empresas deciden voluntariamente contribuir a una sociedad más justa y a un medio ambiente más limpio.

El concepto de responsabilidad social puede entenderse a dos niveles: el nivel interno se refiere a los empleados y a todas las partes afectadas por la empresa y que pueden influir en el logro de sus resultados. El nivel externo son las consecuencias de las acciones de una organización sobre el medio ambiente, sus socios comerciales y el entorno en el que operan.

La responsabilidad social implica que una empresa no sólo tiene el objetivo de obtener un beneficio y además de aportar beneficios financieros a las personas que trabajan en la empresa, también debe contribuir socialmente a su entorno. Así pues, la responsabilidad social suele entrañar medidas que aportan cultura y buenas condiciones a la sociedad.

Hay varios factores que han dado lugar al concepto de responsabilidad social, en un contexto de globalización y cambios en las industrias, han surgido nuevas preocupaciones y expectativas de los ciudadanos, los consumidores, las autoridades públicas y los inversores en relación con las organizaciones. Los particulares y las instituciones, como los consumidores e inversores, han comenzado a condenar los daños causados al medio ambiente por las actividades económicas y también a ejercer presión sobre las empresas para que cumplan los requisitos ambientales y a exigir a los órganos reguladores, legislativos y gubernamentales que elaboren marcos jurídicos apropiados y vigilen su aplicación.

Los primeros estudios sobre la responsabilidad social comenzaron en los Estados Unidos en el decenio de 1950 y en Europa en el decenio de 1960. Las primeras manifestaciones sobre este tema aparecieron en 1906, pero no recibieron apoyo, ya que se consideraban de naturaleza socialista, y sólo en 1953, en los Estados Unidos, el tema recibió atención y ganó espacio. En el decenio de 1970 comenzaron a surgir asociaciones de profesionales interesados en el estudio del tema, y sólo a partir de entonces la responsabilidad social dejó de ser una mera curiosidad para convertirse en un nuevo campo de estudio.

Responsabilidad social de las empresas

También existe la responsabilidad social de las empresas, que es el conjunto de acciones que benefician a la sociedad y a las empresas que realizan las compañías, teniendo en cuenta la economía, la educación, el medio ambiente, la salud, el transporte, la vivienda, las actividades locales y el gobierno.

Generalmente, las organizaciones crean programas sociales, que terminan generando beneficios mutuos entre la empresa y la comunidad, mejorando la calidad de vida de los empleados y de la propia población.

Responsabilidad social de las empresas

La responsabilidad social de las empresas está estrechamente vinculada a una gestión ética y transparente que la organización debe tener con sus interesados a fin de reducir al mínimo sus efectos negativos en el medio ambiente y la comunidad. Las empresas actuales tienen una conciencia social cada vez mayor, lo que se refleja en la responsabilidad social demostrada.

Responsabilidad social y ambiental

La responsabilidad social está estrechamente relacionada con las prácticas de preservación del medio ambiente. Así pues, una empresa socialmente responsable debe ser conocida por crear políticas responsables en el ámbito del medio ambiente, teniendo como uno de sus principales objetivos su sostenibilidad.

Véase también: el significado de Responsabilidad Civil.