Unter Digitalisierung (von lateinisch digitus ‚Finger‘ und englisch digit ‚Ziffer‘) versteht man die Umwandlung von analogen, d. h. stufenlos darstellbaren Werten bzw. das Erfassen von Informationen über physische Objekte in Formate, welche sich zu einer Verarbeitung oder Speicherung in digitaltechnischen Systemen eignen. Die Information wird hierbei in ein digitales Signal umgewandelt, das nur aus diskreten Werten besteht. Zunehmend wird unter Digitalisierung auch die Nutzung primär digitaler Repräsentationen, zum Beispiel durch Digitalkameras oder digitale Tonaufzeichnungssysteme verstanden. Die Möglichkeit der informationstechnischen (Weiter-)Verarbeitung ist ein Prinzip, das allen Erscheinungsformen der Digitalen Revolution und der Digitalen Transformation im Wirtschafts-, Gesellschafts-, Arbeits- und Privatleben zugrunde liegt.
Das Verb digitize taucht im englischen Sprachraum 1953 erstmals auf, digitization im Jahr 1954. Spätestens seit Mitte der 1980er Jahre wurde der daraus abgeleitete Begriff der Digitalisierung in Deutschland verwendet.
Seit etwa 2013 wird – so zeigen Google-Suchanfragen – der Begriff der Digitalisierung in der deutschsprachigen medialen Öffentlichkeit immer seltener im Sinne der ursprünglichen Bedeutung (Umwandlung von analogen in digitale Datenformate) verwendet, sondern fast ausschließlich (und zunehmend unbestimmt) im Sinne der umfassenden Megatrends der digitalen Transformation und Durchdringung aller Bereiche von Wirtschaft, Staat, Gesellschaft und Alltag. Dabei geht es um „die zielgerichtete Identifikation und das konsequente Ausschöpfen von Potenzialen, die sich aus Digitaltechnik ergeben“. Dort wird auch von „Digitalisierungsfähigkeit“ gesprochen, was wie viele andere Zusammensetzungen mit „Digitalisierung“ semantisch unsinnig ist.
Oft werden alle Formen technisch vernetzter digitaler Kommunikation wie Breitbandkommunikation, Internet der Dinge, E-Commerce, Smart Home oder Industrie 4.0 undifferenziert unter das Schlagwort subsumiert. Peter Mertens, Dina Barbian und Stephan Baier zeigen die zunehmend inflationäre und fragwürdige Verwendung des Begriffs auf, der nicht nur einen wichtigen Trend markiert, sondern auch Merkmale einer Mode (Hype, fad) trägt. Diese Mode sei mit allzu optimistischen Erwartungen und Machbarkeitsillusionen verbunden; ihre Realisierung könne zu riskanten Übertreibungen und Fehlinvestitionen führen. So ist von 2013 bis 2017 die Zahl der Google-Suchanfragen für „Digitalisierung“ und „Industrie 4.0“ um etwa 600 bis 700 Prozent gestiegen, ein klassisches Anzeichen für einen Hype.
Tatsächlich erhöht die technisch vernetzte digitale Kommunikation die Vielfalt technisch-organisatorischer Lösungsmöglichkeiten erheblich. Daher schafft sie keine langfristig stabilen Strukturen, sondern erhöht deren Flexibilität und Komplexität und reduziert ihre Berechenbarkeit durch die von ihr angestoßenen Prozesse disruptiven Wandels.
Die folgenden Ausführungen beziehen sich vorrangig auf die Digitalisierung im ursprünglichen, engeren Sinne als Prozess der Datenumwandlung.
Die Digitalisierung als Erstellung digitaler Repräsentationen hat den Zweck, Informationen digital zu speichern und für die elektronische Datenverarbeitung verfügbar zu machen. Sie begann historisch meist mit einem analogen Medium (Photonegativ, Diapositiv, Tonband, Schallplatte). Das Produkt einer solchen Digitalisierung wird mitunter als Digitalisat bezeichnet. Zunehmend wird unter Objektdigitalisierung jedoch auch die Erstellung primär digitaler Repräsentationen mittels digitaler Video-, Foto- oder Tonaufzeichnung verstanden. Hier wird der Begriff Digitalisat gewöhnlich nicht verwendet.
Erste Versuche zur Digitalisierung analoger Informationen gehen auf Leibniz’ Binärkalkül und kryptographische Experimente des 17. Jahrhunderts zurück. Pläne zum Bau einer digitalen Rechenmaschine scheiterten an den damaligen Grenzen der Mechanik. Erste praktisch bedeutsame ingenieurtechnische Umsetzungen des Prinzips finden sich in Form der Kartensteuerung des Jacquardwebstuhls und der Telegrafie. Grundlagen der papierlosen Speicherung und Verarbeitung von Digitaldaten waren die Flipflop-Schaltung 1918, die – dauernde Spannungsversorgung vorausgesetzt – ein Bit über unbegrenzte Zeit speichern kann, ferner die Elektronenröhre und der Transistor (1947). Für die massenhafte Speicherung und Verarbeitung existieren seit den 1960er Jahren immer leistungsfähigere Speichermedien und seit den 1970er Jahren Mikroprozessoren.
Es wird geschätzt, dass 2007 bereits 94 Prozent der weltweiten technologischen Informationskapazität digital war (nach lediglich 3 Prozent im Jahr 1993). Auch wird angenommen, dass es der Menschheit im Jahr 2002 zum ersten Mal möglich war, mehr Information digital als analog zu speichern (der Beginn des „Digitalen Zeitalters“).
Die zu digitalisierende Größe kann alles sein, was mittels Sensoren messbar ist. Typische Beispiele sind: