Deutschkenntnisse im Job: Wie wichtig sind sie wirklich?
In Deutschland arbeiten, ohne Deutsch zu sprechen? Die wenigsten Unternehmen bieten das explizit in ihrer Stellenausschreibung an. Warum sich ein Umdenken lohnen könnte – und das nicht bedeuten muss, dass wir bald alle nur noch Englisch sprechen. weiterlesen auf t3n.de
Wie ist Ihre Reaktion?