Touchscreen

Aus besserwiki.de
Ein Benutzer bedient einen Touchscreen
Intelligentes Ecobee-Thermostat mit Touchscreen

Ein Touchscreen oder Berührungsbildschirm ist eine Kombination aus einem Eingabe- ("Touchpanel") und einem Ausgabegerät ("Display"). Der Touchscreen wird in der Regel auf eine elektronische Anzeige eines Informationsverarbeitungssystems aufgesetzt. Bei dem Display handelt es sich häufig um ein LCD-, AMOLED- oder OLED-Display, während das System in der Regel ein Laptop, ein Tablet oder ein Smartphone ist. Ein Benutzer kann Eingaben machen oder das Informationsverarbeitungssystem durch einfache oder Mehrfachberührungsgesten steuern, indem er den Bildschirm mit einem speziellen Stift oder einem oder mehreren Fingern berührt. Einige Touchscreens funktionieren mit gewöhnlichen oder speziell beschichteten Handschuhen, während andere nur mit einem speziellen Stylus oder Stift funktionieren. Der Benutzer kann mit dem Touchscreen auf das, was angezeigt wird, reagieren und, wenn die Software es zulässt, die Anzeige steuern, z. B. durch Zoomen die Textgröße erhöhen.

Der Touchscreen ermöglicht es dem Benutzer, direkt mit der Anzeige zu interagieren, anstatt eine Maus, ein Touchpad oder andere Geräte zu verwenden (mit Ausnahme eines Stiftes, der bei den meisten modernen Touchscreens optional ist).

Touchscreens sind in Geräten wie Spielkonsolen, Personalcomputern, elektronischen Wahlautomaten und Kassensystemen (POS) weit verbreitet. Sie können auch an Computer oder, als Terminals, an Netzwerke angeschlossen werden. Sie spielen eine wichtige Rolle bei der Entwicklung digitaler Geräte wie persönlicher digitaler Assistenten (PDAs) und einiger E-Reader. Touchscreens sind auch in Bildungseinrichtungen wie Klassenzimmern oder auf dem Universitätsgelände von Bedeutung.

Die Beliebtheit von Smartphones, Tablets und vielen Arten von Informationsgeräten steigert die Nachfrage und Akzeptanz von Touchscreens für tragbare und funktionelle Elektronik. Touchscreens werden im medizinischen Bereich, in der Schwerindustrie, an Geldautomaten und an Kiosken wie Museumsdisplays oder in der Raumautomation eingesetzt, wo Tastatur- und Maussysteme keine ausreichend intuitive, schnelle und genaue Interaktion des Benutzers mit dem Displayinhalt ermöglichen.

In der Vergangenheit wurden der Touchscreen-Sensor und die zugehörige Controller-basierte Firmware von einer Vielzahl von Systemintegratoren auf dem Nachrüstmarkt und nicht von Display-, Chip- oder Motherboard-Herstellern zur Verfügung gestellt. Die Hersteller von Displays und Chips haben den Trend zur Akzeptanz von Touchscreens als Benutzerschnittstellenkomponente erkannt und damit begonnen, Touchscreens in das grundlegende Design ihrer Produkte zu integrieren.

Advancedsettings.png

Dieser Artikel befindet sich derzeit in der Qualitätssicherung im WikiProjekt Elektrotechnik des Portal Elektrotechnik. Wenn du dich mit dem Thema auskennst, bist du herzlich eingeladen, dich an der Prüfung und möglichen Verbesserung des Artikels zu beteiligen. Der Meinungsaustausch dazu ist in der Diskussion (Artikel „Touchscreen“ eintragen) zu finden.

Ein Touchscreen, auch Berührbildschirm (früher: „berührungsempfindlicher Bildschirm“, seltener: „Berührungsbildschirm“, „Tastschirm“, „Sensorbildschirm“) genannt, ist ein kombiniertes Ein- und Ausgabegerät, bei dem durch Berührung von Teilen eines Bildes der Programmablauf eines technischen Gerätes, meist eines Computers, direkt gesteuert werden kann. Die technische Umsetzung der Befehlseingabe ist für den Nutzer gleichsam unsichtbar und erzeugt so den Eindruck einer unmittelbaren Steuerung eines Computers per Fingerzeig. Das Bild, welches durch das (darauf oder darunter befindliche) Touchpad berührungsempfindlich gemacht wird, kann auf verschiedene Weise erzeugt werden: dynamisch mittels Monitoren, über Projektion oder physisch (etwa als Ausdruck).

Statt einen Mauszeiger mit der Maus oder Ähnlichem zu steuern, kann der Finger oder ein Zeigestift verwendet werden. Die Anzeige eines Mauszeigers ist damit nur noch nötig, wenn eine genaue und/oder bleibende Positionierung gewünscht ist (zum Beispiel bei grafischem Design), oder der Bildinhalt beim Anwählen sichtbar bleiben muss (zum Beispiel wenn nicht genügend Anzeigefläche zur Verfügung steht).

Die Analogie zum Mausklick ist ein kurzes Tippen. Durch Ziehen des Fingers oder Stiftes über den Touchscreen kann eine „Ziehen und Fallenlassen“-Operation ausgeführt werden. Manche Systeme können mehrere gleichzeitige Berührungen zu Befehlen verarbeiten (Multi-Touch), um zum Beispiel angezeigte Elemente zu drehen oder zu skalieren. Der Begriff „Multi-Touch“ wird meistens auch im Zusammenhang mit der Fähigkeit des Systems benutzt, Gesten zu erkennen, wenn zum Beispiel durch Wischen (Swipen) weitergeblättert werden kann.

Andere Systeme erlauben, zum Beispiel durch die berührungslose Erkennung eines darüber schwebenden Fingers, die volle Emulation eines Mauszeigers mit einem vom Tippen separaten Zeigemodus.

Der erste (kapazitive) Touchscreen wurde Anfang der 70er Jahre am CERN für die Steuerung des Super-Proton-Synchrotron-Teilchenbeschleunigers entwickelt. Ein früher Touchscreen entstand auch Anfang der 1970er Jahre bei Telefunken (Rainer Mallebrein). Der erste Touchscreen in einem Handy wurde laut PC-Welt in den IBM Simon 1992 eingebaut.

Tabletcomputer mit Multi-Touch-Bildschirm

Geschichte

Der Prototyp eines x-y-Touchscreens mit gegenseitiger Kapazität (links) wurde 1977 von Frank Beck, einem britischen Elektronikingenieur, am CERN für den Kontrollraum des CERN-Beschleunigers SPS (Super Proton Synchrotron) entwickelt. Dies war eine Weiterentwicklung des selbstkapazitiven Bildschirms (rechts), der 1972 ebenfalls von Stumpe am CERN entwickelt wurde.

Ein Vorläufer des modernen Touchscreens sind stiftbasierte Systeme. Im Jahr 1946 meldete die Philco Company ein Patent für einen Stift an, der für Sportübertragungen entwickelt wurde und der, wenn er auf eine Kathodenstrahlröhre (CRT) gehalten wurde, das ursprüngliche Signal verstärkte und ergänzte. Effektiv verwendet, um vorübergehend Pfeile oder Kreise auf eine Live-Fernsehübertragung zu zeichnen US 2487641A, Denk, William E, "Electronic pointer for television images", ausgestellt 1949-11-08. Spätere Erfindungen bauten auf diesem System auf, um Fernschreibstifte von ihren mechanischen Bindungen zu befreien. Indem man das, was ein Benutzer zeichnet, auf einen Computer überträgt, kann man es zur späteren Verwendung speichern US 3089918A, Graham, Robert E, "Telewriting apparatus", veröffentlicht am 14.05.1963.

Die erste Version eines Touchscreens, der unabhängig vom Licht des Bildschirms funktionierte, wurde von AT&T Corporation patentiert US 3016421A, Harmon, Leon D, "Electrographic transmitter", ausgestellt am 1962-01-09. Bei diesem Touchscreen wurde eine Matrix aus kollimierten Lichtstrahlen verwendet, die orthogonal über die Oberfläche des Touchscreens strahlten. Wenn ein Strahl durch einen Stift unterbrochen wird, können die Photodetektoren, die kein Signal mehr empfangen, dazu verwendet werden, die Stelle der Unterbrechung zu bestimmen. Spätere Iterationen von matrixbasierten Touchscreens bauten darauf auf, indem sie mehr Emitter und Detektoren hinzufügten, um die Auflösung zu verbessern, pulsierende Emitter, um das optische Signal-Rausch-Verhältnis zu verbessern, und eine nicht-orthogonale Matrix, um Schattenmessungen bei der Verwendung von Multi-Touch zu entfernen.

Der erste fingergesteuerte Touchscreen wurde von Eric Johnson vom Royal Radar Establishment in Malvern, England, entwickelt. Er beschrieb seine Arbeit an kapazitiven Touchscreens in einem kurzen Artikel, der 1965 veröffentlicht wurde, und dann ausführlicher - mit Fotos und Diagrammen - in einem 1967 veröffentlichten Artikel. Die Anwendung der Berührungstechnologie für die Flugsicherung wurde in einem 1968 veröffentlichten Artikel beschrieben. Frank Beck und Bent Stumpe, Ingenieure des CERN (Europäische Organisation für Kernforschung), entwickelten in den frühen 1970er Jahren einen transparenten Touchscreen, der auf Stumpes Arbeit in einer Fernsehfabrik in den frühen 1960er Jahren basierte. Er wurde dann vom CERN und kurz darauf von Industriepartnern hergestellt und 1973 in Betrieb genommen. Mitte der 1960er Jahre war ein weiterer Vorläufer der Touchscreens, ein auf Ultraschallvorhängen basierendes Zeigegerät vor einem Terminal-Display, von einem Team um Rainer Mallebrein [de] bei Telefunken Konstanz für ein Flugsicherungssystem entwickelt worden. Daraus entwickelte sich 1970 ein Gerät namens "Touchinput-Einrichtung" für das Terminal SIG 50 mit einer leitfähig beschichteten Glasscheibe vor dem Display. Dies wurde 1971 patentiert und das Patent wurde einige Jahre später erteilt. Dasselbe Team hatte bereits einige Jahre zuvor die Rollkugel-Maus RKS 100-86 für den SIG 100-86 erfunden und vermarktet.

1972 meldete eine Gruppe an der Universität von Illinois ein Patent für einen optischen Touchscreen an, der zum Standardbestandteil des Magnavox Plato IV Studententerminals wurde und zu diesem Zweck zu Tausenden gebaut wurde. Diese Touchscreens verfügten über eine gekreuzte Anordnung von 16×16 Infrarot-Positionssensoren, die jeweils aus einer LED an einer Kante des Bildschirms und einem passenden Fototransistor an der anderen Kante bestanden und vor einem monochromen Plasmabildschirm angebracht waren. Mit dieser Anordnung konnte jedes undurchsichtige Objekt in der Größe einer Fingerspitze in unmittelbarer Nähe des Bildschirms erfasst werden. Ein ähnlicher Touchscreen wurde ab 1983 auf dem HP-150 verwendet. Der HP 150 war einer der ersten kommerziellen Touchscreen-Computer der Welt. HP montierte seine Infrarotsender und -empfänger um den Rahmen einer 9-Zoll-Kathodenstrahlröhre (CRT) von Sony.

1977 begann das amerikanische Unternehmen Elographics - in Zusammenarbeit mit Siemens - mit der Entwicklung einer transparenten Implementierung einer bereits bestehenden undurchsichtigen Touchpad-Technologie (US-Patent Nr. 3.911.215 vom 7. Oktober 1975), die von Elographics' Gründer George Samuel Hurst entwickelt worden war. Der daraus resultierende Touchscreen mit resistiver Technologie wurde 1982 erstmals vorgestellt.

1984 brachte Fujitsu ein Touchpad für den Micro 16 auf den Markt, um die Komplexität der Kanji-Zeichen zu bewältigen, die als Kachelgrafiken gespeichert wurden. 1985 brachte Sega das Terebi Oekaki, auch bekannt als Sega Graphic Board, für die Videospielkonsole SG-1000 und den Heimcomputer SC-3000 heraus. Es bestand aus einem Kunststoffstift und einer Kunststofftafel mit einem durchsichtigen Fenster, in dem die Stifteingaben erkannt wurden. Es wurde hauptsächlich mit einer Zeichensoftware verwendet. Ein grafisches Touch-Tablett wurde 1986 für den Sega AI-Computer herausgebracht.

In den frühen 1980er Jahren wurden berührungsempfindliche Steuerungs- und Anzeigeeinheiten (Control-Display Units, CDUs) für die Flugdecks von Verkehrsflugzeugen untersucht. Erste Untersuchungen ergaben, dass eine berührungsempfindliche Schnittstelle die Arbeitsbelastung der Piloten verringern würde, da die Besatzung dann Wegpunkte, Funktionen und Aktionen auswählen könnte, anstatt "mit dem Kopf nach unten" Breiten- und Längengrade sowie Wegpunktcodes auf einer Tastatur einzugeben. Eine wirksame Integration dieser Technologie sollte die Flugbesatzungen dabei unterstützen, ein hohes Maß an Situationsbewusstsein für alle wichtigen Aspekte des Fahrzeugbetriebs aufrechtzuerhalten, einschließlich der Flugbahn, der Funktionsweise verschiedener Flugzeugsysteme und der Interaktionen zwischen den Menschen von einem Moment auf den anderen.

In den frühen 1980er Jahren beauftragte General Motors seine Abteilung Delco Electronics mit einem Projekt, das darauf abzielte, die nicht lebensnotwendigen Funktionen eines Automobils (d. h. andere als Drosselklappe, Getriebe, Bremsen und Lenkung) von mechanischen oder elektromechanischen Systemen durch Festkörperalternativen zu ersetzen, wo immer dies möglich war. Das fertige Gerät wurde ECC (Electronic Control Center) genannt, ein digitales Computer- und Softwaresteuerungssystem, das mit verschiedenen peripheren Sensoren, Servomotoren, Magnetventilen, Antennen und einem monochromen CRT-Touchscreen, der sowohl als Anzeige als auch als einzige Eingabemethode diente, fest verdrahtet war. Das ECC ersetzte die traditionellen mechanischen Steuerungen und Anzeigen für Stereoanlage, Gebläse, Heizung und Klimaanlage und war in der Lage, sehr detaillierte und spezifische Informationen über den kumulativen und aktuellen Betriebsstatus des Fahrzeugs in Echtzeit zu liefern. Das ECC gehörte zur Serienausstattung des Buick Riviera (1985-1989) und später des Buick Reatta (1988-1989), war aber bei den Verbrauchern unbeliebt - zum Teil wegen der Technikfeindlichkeit einiger traditioneller Buick-Kunden, vor allem aber wegen kostspieliger technischer Probleme mit dem Touchscreen des ECC, die die Bedienung der Klimaanlage oder der Stereoanlage unmöglich machten.

Die Anfänge der Multi-Touch-Technologie gehen auf das Jahr 1982 zurück, als die Input Research Group der University of Toronto das erste Multi-Touch-System mit menschlicher Eingabe entwickelte, bei dem eine Milchglasscheibe mit einer dahinter angebrachten Kamera verwendet wurde. Im Jahr 1985 entwickelte die Gruppe der Universität Toronto, zu der auch Bill Buxton gehörte, ein Multitouch-Tablett, bei dem anstelle der sperrigen optischen Kamerasysteme Kapazitätssensoren zum Einsatz kamen (siehe Geschichte des Multitouch).

Die erste kommerziell erhältliche grafische Kassensoftware wurde auf dem 16-Bit-Farbcomputer Atari 520ST vorgeführt. Sie verfügte über eine Widget-gesteuerte Farb-Touchscreen-Oberfläche. Die ViewTouch-POS-Software wurde erstmals von ihrem Entwickler Gene Mosher im Atari-Computer-Demonstrationsbereich auf der Herbstmesse COMDEX 1986 vorgestellt.

1987 brachte Casio den Taschencomputer Casio PB-1000 mit einem Touchscreen auf den Markt, der aus einer 4×4-Matrix bestand, was zu 16 Berührungsflächen auf dem kleinen LCD-Grafikbildschirm führte.

Touchscreens hatten bis 1988 den schlechten Ruf, ungenau zu sein. In den meisten Büchern über Benutzerschnittstellen hieß es, dass die Auswahl auf dem Touchscreen auf Ziele beschränkt war, die größer als der durchschnittliche Finger waren. Damals wurde die Auswahl so getroffen, dass ein Ziel ausgewählt wurde, sobald der Finger darüber fuhr, und die entsprechende Aktion wurde sofort ausgeführt. Aufgrund von Parallaxen oder Kalibrierungsproblemen kam es häufig zu Fehlern, was zu Frustration bei den Benutzern führte. Die "Lift-off-Strategie" wurde von Forschern des Human-Computer Interaction Lab (HCIL) der University of Maryland eingeführt. Wenn die Benutzer den Bildschirm berühren, erhalten sie eine Rückmeldung darüber, was ausgewählt wird: Sie können die Position des Fingers anpassen, und die Aktion wird erst ausgeführt, wenn der Finger vom Bildschirm abgehoben wird. Dies ermöglichte die Auswahl kleiner Ziele bis hinunter zu einem einzigen Pixel auf einem 640×480 Video Graphics Array (VGA)-Bildschirm (ein Standard zu jener Zeit).

Sears et al. (1990) gaben einen Überblick über die akademische Forschung zu Single- und Multi-Touch-Interaktion zwischen Mensch und Computer und beschrieben Gesten wie das Drehen von Knöpfen, das Einstellen von Schiebereglern und das Wischen über den Bildschirm, um einen Schalter zu aktivieren (oder eine U-förmige Geste für einen Kippschalter). Das HCIL-Team entwickelte und untersuchte kleine Touchscreen-Tastaturen (einschließlich einer Studie, die zeigte, dass Benutzer auf einer Touchscreen-Tastatur mit einer Geschwindigkeit von 25 wpm tippen können) und unterstützte so deren Einführung auf mobilen Geräten. Sie entwickelten und implementierten auch Multi-Touch-Gesten wie die Auswahl eines Bereichs einer Linie, das Verbinden von Objekten und eine "Tap-Click"-Geste zur Auswahl, während die Position mit einem anderen Finger beibehalten wird.

1990 stellte HCIL einen Touchscreen-Schieberegler vor, der später im Rechtsstreit zwischen Apple und anderen Anbietern von Touchscreen-Mobiltelefonen um das Sperrbildschirm-Patent (in Bezug auf das US-Patent 7.657.849) als Stand der Technik angeführt wurde.

In den Jahren 1991-1992 implementierte der Prototyp des Sun Star7 PDA einen Touchscreen mit Trägheitsbildlauf. 1993 brachte IBM mit dem IBM Simon das erste Touchscreen-Telefon auf den Markt.

Ein früher Versuch einer Handheld-Spielkonsole mit Touchscreen-Steuerung war Segas geplanter Nachfolger des Game Gear, obwohl das Gerät aufgrund der hohen Kosten für die Touchscreen-Technologie in den frühen 1990er Jahren letztendlich auf Eis gelegt und nie veröffentlicht wurde.

Das erste Mobiltelefon mit kapazitivem Touchscreen war das LG Prada, das im Mai 2007 auf den Markt kam (also noch vor dem ersten iPhone). Bis 2009 wurden Mobiltelefone mit Touchscreen zum Trend und gewannen schnell an Beliebtheit, sowohl bei einfachen als auch bei fortschrittlichen Geräten. Im 4. Quartal 2009 wurde zum ersten Mal die Mehrheit der Smartphones (d. h. nicht alle Mobiltelefone) mit Touchscreens ausgeliefert.

Touchscreens wurden bis zur Veröffentlichung des Nintendo DS im Jahr 2004 nicht für Videospiele verwendet. Bis vor kurzem konnten die meisten Touchscreens nur einen Berührungspunkt auf einmal erkennen, und nur wenige hatten die Fähigkeit zu erkennen, wie stark man berührt. Dies hat sich mit der Kommerzialisierung der Multi-Touch-Technologie und der Veröffentlichung der Apple Watch mit einem kraftabhängigen Display im April 2015 geändert.

Im Jahr 2007 waren 93 % der ausgelieferten Touchscreens resistiv und nur 4 % waren kapazitiv projiziert. Im Jahr 2013 waren 3 % der ausgelieferten Touchscreens resistiv und 90 % projiziert-kapazitiv.

Technologien

Es gibt eine Vielzahl von Touchscreen-Technologien mit unterschiedlichen Methoden zur Erkennung von Berührungen.

Widerstandsfähig

Ein resistiver Touchscreen besteht aus mehreren dünnen Schichten, von denen die wichtigste zwei transparente, elektrisch resistive Schichten sind, die sich mit einem dünnen Spalt dazwischen gegenüberliegen. Die obere Schicht (die, die berührt wird) hat eine Beschichtung auf der Unterseite; direkt darunter befindet sich eine ähnliche Widerstandsschicht auf dem Substrat. Die eine Schicht hat leitende Verbindungen an den Seiten, die andere an der Ober- und Unterseite. An die eine Schicht wird eine Spannung angelegt, die von der anderen abgetastet wird. Wenn ein Gegenstand, z. B. eine Fingerspitze oder ein Stift, auf die äußere Oberfläche drückt, berühren sich die beiden Schichten und werden an diesem Punkt verbunden. Die Platte verhält sich dann wie ein Paar von Spannungsteilern, jeweils eine Achse auf einmal. Durch schnelles Umschalten zwischen den einzelnen Schichten kann die Position des Drucks auf dem Bildschirm ermittelt werden.

Resistive Touchscreens werden in Restaurants, Fabriken und Krankenhäusern eingesetzt, da sie sehr unempfindlich gegenüber Flüssigkeiten und Verunreinigungen sind. Ein großer Vorteil der Resistiv-Touch-Technologie sind ihre geringen Kosten. Da nur ein ausreichender Druck erforderlich ist, um die Berührung zu erkennen, können sie auch mit Handschuhen oder mit einem starren Gegenstand als Fingerersatz verwendet werden. Zu den Nachteilen gehören die Notwendigkeit, nach unten zu drücken, und die Gefahr der Beschädigung durch scharfe Gegenstände. Resistive Touchscreens haben außerdem einen schlechteren Kontrast, da die auf dem Bildschirm aufgebrachten Materialschichten zusätzliche Reflexionen (d. h. Blendungen) verursachen. Diese Art von Touchscreen wurde von Nintendo in der DS-Familie, der 3DS-Familie und dem Wii U GamePad verwendet.

5-wire Touchscreen

Akustische Oberflächenwellen

Die Surface Acoustic Wave (SAW)-Technologie verwendet Ultraschallwellen, die über das Touchscreen-Panel laufen. Wenn das Panel berührt wird, wird ein Teil der Wellen absorbiert. Die Veränderung der Ultraschallwellen wird vom Controller verarbeitet, um die Position des Berührungsereignisses zu bestimmen. Akustische Oberflächenwellen-Touchscreens können durch äußere Einflüsse beschädigt werden. Auch Verunreinigungen auf der Oberfläche können die Funktion des Touchscreens beeinträchtigen.

SAW-Geräte haben ein breites Anwendungsspektrum, darunter Verzögerungsleitungen, Filter, Korrelatoren und Gleichspannungswandler.

Kapazitiv

Kapazitiver Touchscreen eines Mobiltelefons
Die Casio TC500 Uhr mit kapazitivem Berührungssensor aus dem Jahr 1983, mit schrägem Licht, das die Berührungssensorfelder und die auf die obere Glasoberfläche der Uhr geätzten Spuren sichtbar macht.

Ein kapazitiver Touchscreen besteht aus einem Isolator, z. B. Glas, der mit einem transparenten Leiter, z. B. Indium-Zinn-Oxid (ITO), beschichtet ist. Da der menschliche Körper auch ein elektrischer Leiter ist, führt die Berührung der Bildschirmoberfläche zu einer Verzerrung des elektrostatischen Feldes des Bildschirms, die als Kapazitätsänderung messbar ist. Zur Bestimmung des Ortes der Berührung können verschiedene Technologien eingesetzt werden. Die Position wird dann zur Verarbeitung an das Steuergerät gesendet. Es gibt Touchscreens, die Silber anstelle von ITO verwenden, da ITO aufgrund der Verwendung von Indium verschiedene Umweltprobleme verursacht. Der Controller ist in der Regel ein anwendungsspezifischer integrierter Schaltkreis (ASIC), der die Signale zur Verarbeitung an einen digitalen CMOS-Signalprozessor (DSP) weiterleitet.

Im Gegensatz zu einem resistiven Touchscreen können einige kapazitive Touchscreens nicht dazu verwendet werden, einen Finger durch elektrisch isolierendes Material, wie z. B. Handschuhe, zu erkennen. Dieser Nachteil beeinträchtigt vor allem die Benutzerfreundlichkeit in der Unterhaltungselektronik, z. B. bei Touch-Tablet-PCs und kapazitiven Smartphones bei kaltem Wetter, wenn die Menschen Handschuhe tragen. Dieser Nachteil kann durch einen speziellen kapazitiven Stift oder einen speziellen Anwendungshandschuh mit einem aufgestickten Fleck aus leitfähigem Garn, der den elektrischen Kontakt mit der Fingerspitze des Benutzers ermöglicht, behoben werden.

Ein minderwertiges Schaltnetzteil mit entsprechend instabiler, verrauschter Spannung kann die Präzision, Genauigkeit und Empfindlichkeit von kapazitiven Touchscreens vorübergehend beeinträchtigen.

Einige Hersteller kapazitiver Bildschirme entwickeln weiterhin dünnere und genauere Touchscreens. Diejenigen für mobile Geräte werden jetzt mit der "In-Cell"-Technologie hergestellt, wie z. B. bei den Super-AMOLED-Bildschirmen von Samsung, bei denen eine Schicht durch den Einbau der Kondensatoren in den Bildschirm selbst eliminiert wird. Diese Art von Touchscreen verringert den sichtbaren Abstand zwischen dem Finger des Benutzers und dem, was der Benutzer auf dem Bildschirm berührt, wodurch die Dicke und das Gewicht des Displays verringert werden, was bei Smartphones wünschenswert ist.

Ein einfacher Parallelplattenkondensator besteht aus zwei Leitern, die durch eine dielektrische Schicht getrennt sind. Der größte Teil der Energie in diesem System konzentriert sich direkt zwischen den Platten. Ein Teil der Energie schwappt in den Bereich außerhalb der Platten über, und die elektrischen Feldlinien, die mit diesem Effekt verbunden sind, werden als Streufelder bezeichnet. Ein Teil der Herausforderung bei der Herstellung eines praktischen kapazitiven Sensors besteht darin, eine Reihe von Leiterbahnen zu entwerfen, die die Streufelder in einen für den Benutzer zugänglichen aktiven Sensorbereich leiten. Ein Parallelplattenkondensator ist keine gute Wahl für ein solches Sensormuster. Durch die Platzierung eines Fingers in der Nähe der elektrischen Streufelder wird dem kapazitiven System eine zusätzliche leitfähige Oberfläche hinzugefügt. Die zusätzliche Ladungsspeicherkapazität, die durch den Finger hinzugefügt wird, ist als Fingerkapazität oder CF bekannt. Die Kapazität des Sensors ohne einen Finger wird als parasitäre Kapazität (CP) bezeichnet.

Oberflächenkapazitäten

Bei dieser Basistechnologie wird nur eine Seite des Isolators mit einer leitenden Schicht überzogen. An diese Schicht wird eine kleine Spannung angelegt, was zu einem gleichmäßigen elektrostatischen Feld führt. Wenn ein Leiter, z. B. ein menschlicher Finger, die unbeschichtete Oberfläche berührt, wird dynamisch ein Kondensator gebildet. Das Steuergerät des Sensors kann den Ort der Berührung indirekt aus der Änderung der Kapazität bestimmen, die von den vier Ecken der Platte aus gemessen wird. Da er keine beweglichen Teile hat, ist er einigermaßen haltbar, hat aber eine begrenzte Auflösung, ist anfällig für falsche Signale aufgrund parasitärer kapazitiver Kopplung und muss bei der Herstellung kalibriert werden. Daher wird er meist in einfachen Anwendungen wie industriellen Steuerungen und Kiosken eingesetzt.

Einige Standard-Kapazitätserkennungsmethoden sind zwar projektiv, d. h. sie können zur Erkennung eines Fingers durch eine nichtleitende Oberfläche hindurch verwendet werden, aber sie reagieren sehr empfindlich auf Temperaturschwankungen, die die Sensorplatten ausdehnen oder zusammenziehen und dadurch Schwankungen in der Kapazität dieser Platten verursachen. Diese Schwankungen führen zu einem starken Hintergrundrauschen, so dass für eine genaue Erkennung ein starkes Fingersignal erforderlich ist. Dies beschränkt die Anwendungen auf solche, bei denen der Finger das Sensorelement direkt berührt oder durch eine relativ dünne, nicht leitende Oberfläche hindurch erfasst wird.

Projizierte Kapazität

Rückseite eines Multitouch Globe, basierend auf der projiziert-kapazitiven Touch-Technologie (PCT)
8 x 8 projiziert-kapazitiver Touchscreen, hergestellt aus 25 Mikrometer isoliertem Kupferdraht, eingebettet in eine klare Polyesterfolie.
Dieses Diagramm zeigt, wie acht Eingaben auf einem Gitter-Touchscreen oder einer Tastatur 28 einzigartige Schnittpunkte erzeugen, im Gegensatz zu 16 Schnittpunkten, die bei einem Standard-X/Y-Multiplex-Touchscreen entstehen.
Schema eines projiziert-kapazitiven Touchscreens

Die projiziert-kapazitive Touchtechnologie (PCT; auch PCAP) ist eine Variante der kapazitiven Touchtechnologie, bei der jedoch die Berührungsempfindlichkeit, die Genauigkeit, die Auflösung und die Geschwindigkeit der Berührung durch den Einsatz einer einfachen Form von "Künstliche Intelligenz". Dank dieser intelligenten Verarbeitung kann die Fingerabtastung genau und zuverlässig durch sehr dickes Glas und sogar durch Doppelverglasung hindurch projiziert werden.

Einige moderne PCT-Touchscreens bestehen aus Tausenden von einzelnen Tasten, aber die meisten PCT-Touchscreens werden aus einer x/y-Matrix von Zeilen und Spalten aus leitfähigem Material hergestellt, die auf Glasplatten geschichtet sind. Dies kann entweder durch Ätzen einer einzigen leitfähigen Schicht geschehen, um ein Gittermuster aus Elektroden zu bilden, durch Ätzen von zwei separaten, senkrechten Schichten aus leitfähigem Material mit parallelen Linien oder Bahnen, um ein Gitter zu bilden, oder durch Bilden eines x/y-Gitters aus feinen, isolierten Drähten in einer einzigen Schicht. Die Anzahl der Finger, die gleichzeitig erfasst werden können, wird durch die Anzahl der Kreuzungspunkte (x * y) bestimmt. Die Anzahl der Kreuzungspunkte lässt sich jedoch nahezu verdoppeln, wenn ein diagonales Gitterlayout verwendet wird, bei dem nicht nur x-Elemente immer y-Elemente kreuzen, sondern jedes leitende Element jedes andere Element kreuzt.

Die leitende Schicht ist häufig transparent und besteht aus Indiumzinnoxid (ITO), einem transparenten elektrischen Leiter. In einigen Ausführungen erzeugt eine an dieses Gitter angelegte Spannung ein gleichmäßiges elektrostatisches Feld, das gemessen werden kann. Wenn ein leitfähiger Gegenstand, z. B. ein Finger, mit einer PCT-Platte in Berührung kommt, wird das lokale elektrostatische Feld an diesem Punkt verzerrt. Dies ist als Kapazitätsänderung messbar. Überbrückt ein Finger die Lücke zwischen zwei der "Spuren", wird das Ladungsfeld weiter unterbrochen und vom Steuergerät erfasst. Die Kapazität kann an jedem einzelnen Punkt des Gitters geändert und gemessen werden. Dieses System ist in der Lage, Berührungen genau zu verfolgen.

Da die oberste Schicht einer PCT aus Glas besteht, ist sie stabiler als die preiswertere resistive Touchtechnologie. Im Gegensatz zur herkömmlichen kapazitiven Touchtechnologie kann ein PCT-System auch einen passiven Stift oder einen behandschuhten Finger erkennen. Allerdings können Feuchtigkeit auf der Oberfläche des Panels, hohe Luftfeuchtigkeit oder angesammelter Staub die Leistung beeinträchtigen. Diese Umwelteinflüsse sind jedoch bei Touchscreens auf Feindrahtbasis kein Problem, da drahtbasierte Touchscreens eine viel geringere "parasitäre" Kapazität aufweisen und der Abstand zwischen benachbarten Leitern größer ist.

Es gibt zwei Arten von PCT: gegenseitige Kapazität und Eigenkapazität.

Gegenseitige Kapazität

Dies ist ein gängiger PCT-Ansatz, der sich die Tatsache zunutze macht, dass die meisten leitenden Objekte eine Ladung halten können, wenn sie sehr nahe beieinander liegen. Bei kapazitiven Sensoren mit gegenseitiger Kapazität wird ein Kondensator durch die Zeilen- und Spaltenspur an jedem Schnittpunkt des Gitters gebildet. Ein 16×14-Gitter hätte zum Beispiel 224 unabhängige Kondensatoren. An die Zeilen oder Spalten wird eine Spannung angelegt. Bringt man einen Finger oder einen leitenden Stift in die Nähe der Sensoroberfläche, so ändert sich das lokale elektrostatische Feld, was wiederum die gegenseitige Kapazität verringert. Die Kapazitätsänderung an jedem einzelnen Punkt des Gitters kann gemessen werden, um den Ort der Berührung genau zu bestimmen, indem die Spannung in der anderen Achse gemessen wird. Die gegenseitige Kapazität ermöglicht den Multitouch-Betrieb, bei dem mehrere Finger, Handflächen oder Stifte gleichzeitig genau erfasst werden können.

Selbst-Kapazität

Selbstkapazitätssensoren können das gleiche X-Y-Gitter wie Sensoren mit gegenseitiger Kapazität haben, aber die Spalten und Zeilen arbeiten unabhängig voneinander. Bei der Selbstkapazität wird die kapazitive Last eines Fingers an jeder Spalten- oder Zeilenelektrode durch ein Strommessgerät oder die Frequenzänderung eines RC-Oszillators gemessen.

Ein Finger kann überall auf der gesamten Länge einer Reihe erfasst werden. Wenn dieser Finger auch von einer Spalte erfasst wird, kann davon ausgegangen werden, dass sich die Fingerposition am Schnittpunkt dieses Zeilen/Spalten-Paares befindet. Dies ermöglicht die schnelle und genaue Erkennung eines einzelnen Fingers, führt aber zu einer gewissen Unklarheit, wenn mehr als ein Finger erkannt werden soll.

Für zwei Finger gibt es möglicherweise vier mögliche Erkennungspositionen, von denen nur zwei richtig sind. Durch die selektive De-Sensibilisierung von umstrittenen Berührungspunkten lassen sich widersprüchliche Ergebnisse jedoch leicht beseitigen. Auf diese Weise kann "Self Capacitance" für den Multitouch-Betrieb genutzt werden.

Alternativ kann eine Mehrdeutigkeit vermieden werden, indem ein "de-sensibilisierendes" Signal an alle Spalten bis auf eine angelegt wird. Dadurch bleibt nur ein kurzer Abschnitt einer Zeile berührungsempfindlich. Durch Auswahl einer Folge dieser Abschnitte entlang der Reihe kann die genaue Position mehrerer Finger entlang dieser Reihe bestimmt werden. Dieser Vorgang kann dann für alle anderen Zeilen wiederholt werden, bis der gesamte Bildschirm gescannt wurde.

Selbstkapazitive Touchscreen-Schichten werden bei Mobiltelefonen wie dem Sony Xperia Sola, dem Samsung Galaxy S4, Galaxy Note 3, Galaxy S5 und Galaxy Alpha verwendet.

Die Selbstkapazität ist weitaus empfindlicher als die gegenseitige Kapazität und wird hauptsächlich für Einzelberührungen, einfache Gesten und Näherungssensoren verwendet, bei denen der Finger nicht einmal die Glasoberfläche berühren muss. Die gegenseitige Kapazität wird hauptsächlich für Multitouch-Anwendungen verwendet.

Viele Hersteller von Touchscreens verwenden sowohl die Selbst- als auch die Gegenseitigkeitskapazitätstechnologie in einem Produkt und kombinieren so ihre jeweiligen Vorteile.

Verwendung von Stiften auf kapazitiven Bildschirmen

Kapazitive Touchscreens müssen nicht unbedingt mit dem Finger bedient werden, aber bis vor kurzem waren die dafür erforderlichen speziellen Stifte recht teuer in der Anschaffung. Die Kosten für diese Technologie sind in den letzten Jahren stark gesunken, und kapazitive Stifte sind jetzt weithin für eine geringe Gebühr erhältlich und werden oft zusammen mit Handyzubehör kostenlos abgegeben. Sie bestehen aus einem elektrisch leitenden Schaft mit einer weichen, leitfähigen Gummispitze, die eine Widerstandsverbindung zwischen den Fingern und der Spitze des Stiftes herstellt.

Infrarot-Gitter

Infrarotsensoren, die um das Display herum angebracht sind, überwachen die Touchscreen-Eingabe des Benutzers an diesem PLATO V-Terminal aus dem Jahr 1981. Das charakteristische orangefarbene Leuchten des monochromatischen Plasmabildschirms ist zu sehen.

Ein Infrarot-Touchscreen verwendet eine Anordnung von X-Y-Infrarot-LEDs und Fotodetektorpaaren an den Rändern des Bildschirms, um eine Unterbrechung im Muster der LED-Strahlen zu erkennen. Diese LED-Strahlen kreuzen sich in vertikalen und horizontalen Mustern. Dies hilft den Sensoren, die genaue Position der Berührung zu erkennen. Ein großer Vorteil eines solchen Systems besteht darin, dass es praktisch jedes undurchsichtige Objekt erkennen kann, einschließlich eines Fingers, eines Fingers mit Handschuhen, eines Stylus oder eines Stifts. Es wird im Allgemeinen bei Anwendungen im Freien und bei POS-Systemen eingesetzt, die sich nicht auf einen Leiter (wie einen bloßen Finger) verlassen können, um den Touchscreen zu aktivieren. Im Gegensatz zu kapazitiven Touchscreens müssen bei Infrarot-Touchscreens keine Muster auf dem Glas aufgebracht werden, was die Haltbarkeit und die optische Klarheit des Gesamtsystems erhöht. Infrarot-Touchscreens sind empfindlich gegenüber Schmutz und Staub, die die Infrarotstrahlen stören können, und leiden unter Parallaxe bei gekrümmten Oberflächen und versehentlichem Drücken, wenn der Benutzer mit dem Finger über den Bildschirm fährt, während er das auszuwählende Element sucht.

Infrarot-Acryl-Projektion

Eine lichtdurchlässige Acrylplatte wird als Rückprojektionsbildschirm für die Anzeige von Informationen verwendet. Die Kanten der Acrylplatte werden von Infrarot-LEDs beleuchtet, und Infrarotkameras sind auf die Rückseite der Platte gerichtet. Objekte, die sich auf der Platte befinden, können von den Kameras erkannt werden. Wenn die Platte vom Benutzer berührt wird, führt die Verformung zum Austritt von Infrarotlicht, das an den Stellen des maximalen Drucks Spitzenwerte erreicht und die Berührungsstelle des Benutzers anzeigt. Die PixelSense-Tablets von Microsoft verwenden diese Technologie.

Optische Bildgebung

Optische Touchscreens sind eine relativ moderne Entwicklung in der Touchscreen-Technologie, bei der zwei oder mehr Bildsensoren (z. B. CMOS-Sensoren) an den Rändern (meist den Ecken) des Bildschirms angebracht sind. Auf der gegenüberliegenden Seite des Bildschirms sind im Sichtfeld der Sensoren Infrarot-Hintergrundbeleuchtungen angebracht. Bei einer Berührung werden einige Lichter von den Sensoren blockiert, und die Position und Größe des berührenden Objekts kann berechnet werden (siehe visuelle Hülle). Diese Technologie wird aufgrund ihrer Skalierbarkeit, Vielseitigkeit und Erschwinglichkeit für größere Touchscreens immer beliebter.

Dispersive Signaltechnologie

Dieses 2002 von 3M eingeführte System erkennt eine Berührung mit Hilfe von Sensoren, die die Piezoelektrizität des Glases messen. Komplexe Algorithmen interpretieren diese Informationen und liefern den tatsächlichen Ort der Berührung. Die Technologie ist unempfindlich gegenüber Staub und anderen äußeren Einflüssen, einschließlich Kratzern. Da keine zusätzlichen Elemente auf dem Bildschirm erforderlich sind, bietet sie auch eine hervorragende optische Klarheit. Jedes Objekt kann zur Erzeugung von Berührungsereignissen verwendet werden, auch Finger mit Handschuhen. Ein Nachteil ist, dass das System nach der ersten Berührung keinen unbewegten Finger erkennen kann. Aus demselben Grund stören jedoch auch ruhende Objekte die Berührungserkennung nicht.

Akustische Impulserkennung

Der Schlüssel zu dieser Technologie ist, dass eine Berührung an einer beliebigen Stelle der Oberfläche eine Schallwelle im Substrat erzeugt, die dann ein einzigartiges kombiniertes Signal erzeugt, das von drei oder mehr winzigen Wandlern an den Rändern des Touchscreens gemessen wird. Das digitalisierte Signal wird mit einer Liste verglichen, die jeder Position auf der Oberfläche entspricht, um die Position der Berührung zu bestimmen. Eine sich bewegende Berührung wird durch schnelle Wiederholung dieses Prozesses verfolgt. Fremd- und Umgebungsgeräusche werden ignoriert, da sie keinem gespeicherten Klangprofil entsprechen. Die Technologie unterscheidet sich von anderen schallbasierten Technologien durch die Verwendung einer einfachen Nachschlagemethode anstelle teurer signalverarbeitender Hardware. Wie bei der dispersiven Signaltechnologie kann ein unbewegter Finger nach der ersten Berührung nicht mehr erkannt werden. Aus demselben Grund wird die Berührungserkennung jedoch auch nicht durch ruhende Gegenstände gestört. Die Technologie wurde Anfang der 2000er Jahre von SoundTouch Ltd. entwickelt, wie in der Patentfamilie EP1852772 beschrieben, und 2006 von der Elo-Sparte von Tyco International unter dem Namen Acoustic Pulse Recognition auf den Markt gebracht. Der von Elo verwendete Touchscreen besteht aus gewöhnlichem Glas, das eine gute Haltbarkeit und optische Klarheit bietet. Die Technologie behält in der Regel auch bei Kratzern und Staub auf dem Bildschirm ihre Genauigkeit. Die Technologie ist auch für größere Bildschirme gut geeignet.

Aufbau

Es gibt mehrere grundsätzliche Möglichkeiten, einen Touchscreen zu bauen. Die wichtigsten Ziele sind die Erkennung der Berührung des Bildschirms durch einen oder mehrere Finger, die Interpretation des damit verbundenen Befehls und die Weiterleitung des Befehls an die entsprechende Anwendung.

Bei der resistiven Methode, die früher am weitesten verbreitet war, werden in der Regel vier Schichten verwendet:

  1. Obere polyesterbeschichtete Schicht mit einer transparenten metallisch-leitenden Beschichtung auf der Unterseite.
  2. Klebender Abstandshalter
  3. Glasschicht, die auf der Oberseite mit einer transparenten metallisch-leitenden Beschichtung versehen ist
  4. Klebeschicht auf der Rückseite des Glases für die Befestigung.

Wenn ein Benutzer die Oberfläche berührt, registriert das System die Veränderung des elektrischen Stroms, der durch das Display fließt.

Die Dispersionssignaltechnologie misst den piezoelektrischen Effekt - die Spannung, die erzeugt wird, wenn mechanische Kraft auf ein Material einwirkt -, der chemisch entsteht, wenn ein gehärtetes Glassubstrat berührt wird.

Es gibt zwei infrarotbasierte Ansätze. Bei der einen erkennt eine Reihe von Sensoren, wenn ein Finger das Display berührt oder fast berührt, und unterbricht so die über den Bildschirm projizierten Infrarotlichtstrahlen. Bei der anderen Methode zeichnen an der Unterseite montierte Infrarotkameras die Wärme auf, die bei der Berührung des Bildschirms entsteht.

In jedem Fall bestimmt das System den beabsichtigten Befehl auf der Grundlage der Steuerelemente, die zu diesem Zeitpunkt auf dem Bildschirm angezeigt werden, und der Position der Berührung.

Entwicklung

Die Entwicklung von Multi-Touch-Bildschirmen erleichterte die Verfolgung von mehr als einem Finger auf dem Bildschirm, so dass Operationen, die mehr als einen Finger erfordern, möglich sind. Diese Geräte erlauben es auch mehreren Benutzern, gleichzeitig mit dem Touchscreen zu interagieren.

Mit der zunehmenden Verwendung von Touchscreens werden die Kosten für die Touchscreen-Technologie routinemäßig in die Produkte, die sie enthalten, integriert und sind nahezu eliminiert. Die Touchscreen-Technologie hat sich als zuverlässig erwiesen und findet sich in Flugzeugen, Automobilen, Spielkonsolen, Maschinensteuerungssystemen, Haushaltsgeräten und Handheld-Displays, einschließlich Mobiltelefonen; der Markt für Touchscreens in mobilen Geräten wird bis 2009 voraussichtlich 5 Milliarden US-Dollar erreichen.

Die Fähigkeit, genau auf den Bildschirm selbst zu zeigen, wird mit den aufkommenden Grafiktablett-Bildschirm-Hybriden ebenfalls immer besser. Polyvinylidenfluorid (PVFD) spielt bei dieser Innovation aufgrund seiner hohen piezoelektrischen Eigenschaften eine wichtige Rolle, die es dem Tablet ermöglichen, Druck zu spüren, so dass sich z. B. digitales Malen eher wie Papier und Bleistift verhält.

TapSense, das im Oktober 2011 angekündigt wurde, ermöglicht es Touchscreens zu unterscheiden, welcher Teil der Hand für die Eingabe verwendet wurde, z. B. die Fingerspitze, der Fingerknöchel oder der Fingernagel. Dies könnte auf vielfältige Weise genutzt werden, z. B. zum Kopieren und Einfügen, zum Großschreiben von Buchstaben, zum Aktivieren verschiedener Zeichenmodi usw.

Eine echte praktische Integration zwischen Fernsehbildern und den Funktionen eines normalen modernen PCs könnte in naher Zukunft eine Innovation sein: zum Beispiel "All-Live-Informationen" im Internet über einen Film oder die Schauspieler auf Video, eine Liste anderer Musik während eines normalen Videoclips eines Liedes oder Nachrichten über eine Person.

Ergonomie und Bedienung

Touchscreen ermöglichen

Damit Touchscreens effektive Eingabegeräte sind, müssen die Benutzer in der Lage sein, Ziele genau auszuwählen und die versehentliche Auswahl benachbarter Ziele zu vermeiden. Bei der Gestaltung von Touchscreen-Schnittstellen sollten die technischen Möglichkeiten des Systems, die Ergonomie, die kognitive Psychologie und die menschliche Physiologie berücksichtigt werden.

Richtlinien für die Gestaltung von Touchscreens wurden erstmals in den 2020er Jahren auf der Grundlage früher Forschungen und der tatsächlichen Nutzung älterer Systeme entwickelt, die in der Regel Infrarotgitter verwendeten, die stark von der Größe der Finger des Benutzers abhingen. Diese Richtlinien sind für den Großteil der modernen Touch-Geräte, die kapazitive oder resistive Touch-Technologie verwenden, weniger relevant.

Seit Mitte der 2000er Jahre haben die Hersteller von Betriebssystemen für Smartphones Standards festgelegt, die jedoch von Hersteller zu Hersteller variieren und je nach technologischer Entwicklung erhebliche Größenunterschiede zulassen, so dass sie aus Sicht der menschlichen Faktoren ungeeignet sind.

Viel wichtiger ist die Genauigkeit, mit der Menschen Ziele mit ihrem Finger oder einem Stift auswählen. Die Genauigkeit der Benutzerauswahl variiert je nach Position auf dem Bildschirm: Am genauesten sind die Benutzer in der Mitte, weniger genau am linken und rechten Rand und am wenigsten genau am oberen und vor allem am unteren Rand. Die R95-Genauigkeit (erforderlicher Radius für 95 % Zielgenauigkeit) schwankt zwischen 7 mm in der Mitte und 12 mm in den unteren Ecken. Die Benutzer sind sich dessen unbewusst bewusst und nehmen sich mehr Zeit für die Auswahl von Zielen, die kleiner sind oder sich an den Rändern oder Ecken des Touchscreens befinden.

Diese Ungenauigkeit des Benutzers ist eine Folge der Parallaxe, der Sehschärfe und der Geschwindigkeit der Rückkopplungsschleife zwischen Augen und Fingern. Die Präzision des menschlichen Fingers allein ist viel, viel höher als dies, so dass der Benutzer mit Hilfe von Hilfstechnologien - wie z. B. Bildschirmlupen - seinen Finger (sobald er den Bildschirm berührt) mit einer Genauigkeit von nur 0,1 mm (0,004 Zoll) bewegen kann.

Handposition, verwendete Ziffern und Umschalten

Die Benutzer von Handhelds und tragbaren Touchscreen-Geräten halten diese auf unterschiedliche Weise und ändern routinemäßig die Art des Haltens und der Auswahl, je nach Position und Art der Eingabe. Es gibt vier grundlegende Arten der Handheld-Interaktion:

  • Zumindest teilweise Halten mit beiden Händen, Tippen mit einem Daumen
  • Halten mit zwei Händen und Tippen mit beiden Daumen
  • Halten mit einer Hand und Tippen mit dem Finger (oder seltener dem Daumen) der anderen Hand
  • Halten des Geräts in einer Hand und Tippen mit dem Daumen derselben Hand

Die Nutzungsraten sind sehr unterschiedlich. Während das Tippen mit zwei Daumen bei vielen allgemeinen Interaktionen selten vorkommt (1-3 %), wird es bei 41 % der Interaktionen beim Tippen verwendet.

Außerdem werden die Geräte häufig auf Oberflächen (Schreibtische oder Tische) abgelegt, und Tablets werden vor allem in Ständern verwendet. Der Benutzer kann in diesen Fällen mit dem Finger oder Daumen zeigen, auswählen oder gestikulieren und diese Methoden unterschiedlich einsetzen.

Kombiniert mit Haptik

Touchscreens werden häufig in Verbindung mit haptischen Systemen verwendet. Ein gängiges Beispiel für diese Technologie ist die vibrierende Rückmeldung, die beim Antippen einer Schaltfläche auf dem Touchscreen erfolgt. Haptik wird eingesetzt, um die Erfahrung des Benutzers mit Touchscreens zu verbessern, indem sie eine simulierte taktile Rückmeldung gibt. Sie kann so gestaltet werden, dass sie sofort reagiert und so teilweise die Reaktionszeit auf dem Bildschirm verkürzt. Forschungen der Universität Glasgow (Brewster, Chohan und Brown, 2007; und kürzlich Hogan) zeigen, dass Touchscreen-Benutzer Eingabefehler (um 20 %) reduzieren, die Eingabegeschwindigkeit (um 20 %) erhöhen und ihre kognitive Belastung (um 40 %) verringern, wenn Touchscreens mit Haptik oder taktilem Feedback kombiniert werden. Darüber hinaus untersuchte eine 2013 vom Boston College durchgeführte Studie die Auswirkungen der haptischen Stimulation von Touchscreens auf die psychologische Bindung an ein Produkt. Die Studie kam zu dem Schluss, dass die Fähigkeit eines Touchscreens, ein hohes Maß an haptischer Beteiligung zu bieten, dazu führt, dass die Kunden sich mit den Produkten, die sie entwerfen oder kaufen, mehr verbunden fühlen. Die Studie ergab auch, dass Verbraucher, die einen Touchscreen verwenden, bereit sind, einen höheren Preis für die von ihnen gekauften Artikel zu akzeptieren.

Kundenbetreuung

Die Touchscreen-Technologie hat sich im 21. Jahrhundert in vielen Bereichen des Kundendienstes durchgesetzt. Das Gaststättengewerbe ist ein gutes Beispiel für die Einführung von Touchscreens in diesem Bereich. Restaurantketten wie Taco Bell, Panera Bread und McDonald's bieten Touchscreens als Option an, wenn Kunden Artikel von der Speisekarte bestellen. Auch wenn die Einführung von Touchscreens eine Entwicklung für diese Branche darstellt, können die Kunden den Touchscreen umgehen und an einer herkömmlichen Kasse bestellen. Um noch einen Schritt weiter zu gehen, hat ein Restaurant in Bangalore versucht, den Bestellvorgang vollständig zu automatisieren. Die Kunden setzen sich an einen mit Touchscreens ausgestatteten Tisch und bestellen aus einer umfangreichen Speisekarte. Sobald die Bestellung aufgegeben ist, wird sie elektronisch an die Küche weitergeleitet. Diese Art von Touchscreens gehört zu den im ersten Abschnitt erwähnten POS-Systemen (Point of Sale).

"Gorilla-Arm"

Die längere Verwendung von Gestenschnittstellen ohne die Möglichkeit, den Arm auszuruhen, wird als "Gorilla-Arm" bezeichnet. Er kann zu Ermüdung und sogar zu Verletzungen durch wiederholte Belastung führen, wenn er routinemäßig in einer Arbeitsumgebung verwendet wird. Bei einigen frühen stiftbasierten Schnittstellen musste der Bediener einen Großteil des Arbeitstages in dieser Position arbeiten. Die Möglichkeit, die Hand oder den Arm auf dem Eingabegerät oder einem Rahmen um das Gerät herum abzustützen, ist in vielen Fällen eine Lösung für dieses Problem. Dieses Phänomen wird oft als Beispiel für Bewegungen angeführt, die durch eine angemessene ergonomische Gestaltung minimiert werden sollten.

Nicht abgestützte Touchscreens sind bei Anwendungen wie Geldautomaten und Datenkiosken immer noch recht häufig anzutreffen, stellen aber kein Problem dar, da der typische Benutzer sie nur für kurze und weit auseinander liegende Zeiträume benutzt.

Fingerabdrücke

Fingerabdrücke und Flecken auf einem iPad-Touchscreen (Tablet-Computer)

Touchscreens können durch Fingerabdrücke auf dem Display beeinträchtigt werden. Dies kann durch die Verwendung von Materialien mit optischen Beschichtungen gemildert werden, die die sichtbaren Auswirkungen von Fingerabdrucköl reduzieren. Die meisten modernen Smartphones verfügen über oleophobe Beschichtungen, die die Menge der Ölrückstände verringern. Eine weitere Möglichkeit ist die Installation einer matten, entspiegelten Displayschutzfolie, die eine leicht aufgeraute Oberfläche erzeugt, auf der sich nicht so leicht Schmutzflecken festsetzen können.

Handschuh-Touch

Touchscreens funktionieren meist nicht, wenn der Benutzer Handschuhe trägt. Die Dicke des Handschuhs und das Material, aus dem er besteht, spielen dabei eine wichtige Rolle, ebenso wie die Fähigkeit des Touchscreens, eine Berührung zu erkennen.

Anwendungen

Touchscreens finden als Info-Monitore, zum Beispiel auf Messen, zur Orientierung in großen Kaufhäusern, zur Bedienung von Smartphones oder für die Fahrplanauskunft auf Bahnhöfen Verwendung. Hin und wieder sind auch in den Schaufenstern von Apotheken oder Reiseveranstaltern Touchscreens zu finden, über die detaillierte Informationen abgerufen werden können. Darüber hinaus werden Touchscreens bei Spielautomaten und Arcade-Spielen eingesetzt. Oft werden sie auch für die Steuerung von Maschinen in der Industrie eingesetzt (Industrie-PCs), hier insbesondere weil sie weniger schmutzanfällig sind als andere Eingabegeräte wie Tastaturen. Bei manchen Banken gibt es Geldautomaten mit Touchscreen-Bildschirm. In Banken werden sie immer öfter für Überweisungsterminals eingesetzt, wobei die SAW-Technik (Surface Acoustic Wave) zum Einsatz kommt, weil diese relativ vandalensicher ist. Durch ihre Glasoberfläche verkratzt und beschädigt sie nicht so schnell wie beispielsweise resistive Systeme mit ITO-Folie als Oberfläche.

Touchscreen-Terminals, die zur öffentlichen Informationsweitergabe eingesetzt werden, werden in der IT-Branche als Point-of-Interest-System (abgekürzt, POI) oder Kiosksystem bezeichnet. Terminals, die zum Verkauf dienen, werden Point of sale oder abgekürzt POS genannt. Letztere haben sich entgegen der hohen Erwartung der Wirtschaft und der IT-Branche nur eingeschränkt durchgesetzt. Gründe dafür sind neben dem Wartungsaufwand für die Geräte oft die mangelnde Anpassung der Software an die besonderen Bedienungsbedingungen der Touchscreen-Geräte oder oft schlicht auch die unergonomische und unattraktive Software und fehlender Nutzen für die Bediener.

In neueren, modernen Autos werden immer öfter Multifunktionsdisplays als Touchscreen ausgelegt. Neue Techniken bieten hier sogar eine elektronisch erzeugte, taktile Wahrnehmbarkeit.

In Heimsystemen haben sich Touchscreens inzwischen stark verbreitet, vor allem im Bereich der PDAs, Tablet PCs, Smartphones, Digitalkameras und bei den Spielkonsolen Nintendo DS, PlayStation Vita, Wii U und Nintendo Switch sind sie in größerem Einsatz. Die früher aufgrund der kleinen Bildschirme und der nicht daran angepassten Benutzeroberflächen eingesetzten Eingabestifte (auch: Stylus) sind recht unergonomisch und haben den Durchbruch der Touchscreens in diesem Bereich lange verhindert. Erst mit den projiziert-kapazitiven Systemen (zuerst im LG Prada) hat sich das nachhaltig verändert.

Ein Touchscreen braucht nicht vor ein Display montiert zu werden, auch die Verwendung als Ersatz einer Folientastatur ist möglich. Hierzu wird hinter dem Touchscreen (an der Stelle, an der normalerweise der Computerbildschirm sitzt) eine bedruckte (Polyester-)Folie aufgebracht. Es gibt verschiedene Ansätze, Touchscreens ganz von physikalischen Monitoren zu lösen, um auch Projektionen von Benutzeroberflächen interaktiv nutzbar zu machen. Beispiel hierzu ist der inzwischen wieder eingestellte „Virtual Touchscreen“ von Siemens oder verschiedene Systeme aus der Fraunhofer-Gesellschaft.

Funktionsweise

Es gibt mehrere Funktionsprinzipien zur Umsetzung der Berührungsempfindlichkeit:

  • Resistive Systeme
  • Oberflächen-kapazitive Systeme
  • Projiziert-kapazitive Systeme
  • Induktive Systeme
  • SAW (Surface Acoustic Wave) – „(schall)wellen-gesteuerte Systeme“
  • Optische Systeme (in der Regel Infrarotlicht-Gitter vor dem Monitor)
  • Dispersive-Signal-Technology-Systeme

Optische Systeme

Optischer Touchscreen eines PCs (1983, HP 150)

Die ersten Touchscreens waren noch gewölbte Röhrenbildschirme, vor denen eine plane Fläche eines Lichtschrankengitters gespannt wurde. Die Strahlen – jeder einzelne zwischen einem Paar aus LED und Sensor – liefen zeilen- und spaltenweise zwischen Spalten oder Lochreihen in der Brüstung des Bildschirm-Gehäuserahmens und wurden durch eine Fingerspitze optisch unterbrochen. Damit wurde eine Auflösung in der Größenordnung von 5 mm erreicht, was zur Auswahl grober Schaltflächen eines am Bildschirm angezeigten Menüs ausreicht (siehe Bild). Heute werden sie der Robustheit wegen an Bildschirmen von Geldausgabe- oder Fahrscheinautomaten verwendet.

Der 2017 auf den Markt gebrachte digitale Projektor Sony Xperia Touch verfügt über eine Infrarotkamera, mit der die Lage eines Fingers auf der Projektionsfläche ermittelt werden kann. Das Gerät kann damit in den im Projektor unter dem Betriebssystem Android installierten mobilen Apps Reaktionen beziehungsweise Interaktionen auslösen.

Resistive Touchscreens

Four-Wire

Four-Wire (Vier-Draht) ist die einfachste und älteste Konstruktion zur Einrichtung dieser Kreuzung. Dabei wird die Spannung abwechselnd an beide leitfähigen Schichten angelegt, in jeweils unterschiedlicher Ausrichtung. Es sind deshalb vier Drähte zum Anschluss erforderlich, was dem Ganzen seinen Namen gibt.

Four-Wire hat den Nachteil schnell nachlassender Präzision bei der Erfassung der Druckstelle. Die äußere Polyesterschicht des Touchscreens wird durch seine Benutzung mechanisch belastet. Dadurch verliert die leitfähige Beschichtung ihrer Innenseite an Gleichmäßigkeit. Diese Beschichtung ist bei Four-Wire aber ein Maß für die Position der Druckstelle.

Six-Wire, Seven-Wire und Eight-Wire

Six-Wire und Seven-Wire sind Variationen von Five-Wire, während Eight-Wire eine Variation von Four-Wire ist. Bei diesen Bauformen werden die zusätzlichen Leitungen dazu genutzt, die gemessenen Spannungen nicht an der Zuleitung, sondern über separate Messleitungen abzugreifen (Prinzip der Vierleitermessung).

Vor- und Nachteile resistiver Touchscreens

Vorteile:

  • Bedienung mit jedem Eingabestift möglich
  • Mit Handschuhen und Prothesen bedienbar
  • Genauer als kapazitive Touchscreens
  • Geringe Fertigungskosten

Nachteile:

  • Nur eingeschränktes Multitouch (Two-touch)
  • Schlechte Lesbarkeit bei Sonneneinstrahlung durch Zusatzschicht
  • Gestenbedienung aufgrund des notwendigen Drucks erschwert.
  • Verschleiß durch die mechanische Belastung beim Betätigen
  • Unerwünschtes Auslösen beim Transport durch Kontakt mit anderen Gegenständen möglich

Anwendungsbeispiele für resistive Touchscreens

  • Tablet PCs
  • Electronic Organizer, PDAs
  • Handys/Smartphones mit Touchscreen
  • Industrie-PCs, Panel PCs (Steuerung von Maschinen)
  • Kiosksysteme (zum Beispiel Messeinformationssysteme)
  • Automobilsektor (wie Navigationssysteme, Multimedia-Systeme)
  • Bildschirme von In-flight Entertainment in Verkehrsflugzeugen
  • Unterhaltungselektronik ("home entertainment")
  • Bürogeräte (beispielsweise Kopiersysteme)
  • All-in-one-Computer
  • Kaffeevollautomaten für den Hausgebrauch
  • Handheld-Konsolen

Oberflächen-kapazitive Touchscreens

Oberflächen-kapazitiver Touchscreen

Ein Oberflächen-kapazitiver Touchscreen ist eine mit einem durchsichtigen Metalloxid beschichtete Folie (meistens auf Glas auflaminiert). Eine an den Ecken der Beschichtung angelegte Wechselspannung erzeugt ein konstantes, gleichmäßiges elektrisches Feld. Bei Berührung entsteht ein geringer Ladungstransport, der im Entladezyklus in Form eines Stromes an den Ecken gemessen wird. Die resultierenden Ströme aus den Ecken stehen im direkten Verhältnis zu der Berührungsposition. Der Controller verarbeitet die Informationen.

Kapazitiver Touchscreen eines Mobiltelefons mit deutlich sichtbarem leitfähigen Netz

Induktive Touchscreens

Induktive Touchscreens haben gegenüber den anderen beiden Verfahren den Nachteil, dass sie sich nur über spezielle Eingabestifte (mit einer integrierten Spule) nutzen lassen, eine Technik, die von Grafiktabletts übernommen wurde. Diese Spule dient dazu, ein elektromagnetisches Feld zu erzeugen, welches dann von Sensoren im Bildschirm erfasst wird. Diese Daten werden dann dazu genutzt, die genaue Position des Stiftes und, bei einigen Systemen auch die Distanz zum Stift, sowie den Neigungswinkel von ihm zu bestimmen.

Dennoch bieten sie gegenüber anderen Techniken einige Vorteile und werden z. B. bei teureren Tablet-PCs und Bildschirmen mit integriertem Grafiktablett genutzt:

  • In der Schreibhaltung wird durch den liegenden Handballen keine Reaktion hervorgerufen. Bei den anderen Varianten muss hier die Software die aufliegende Hand erkennen und ignorieren, falls der Touchscreen mit einem Stift berührt wird.
  • Die Bildschirmoberfläche kann – wie auch bei den projiziert-kapazitiven Touchscreens – aus Glas oder einem ähnlich robusten Material angefertigt werden, da keine mechanische Einwirkung wie bei den resistiven Modellen notwendig ist.
  • Die Stiftposition kann auch ermittelt werden, wenn der Stift die Oberfläche nicht berührt, sondern sich in einem (geringen) Abstand über ihr befindet.
  • Der Induktionsstrom kann verwendet werden, um zusätzliche Elemente des Stiftes zu betreiben, zum Beispiel Knöpfe oder Druckmesser, um zu ermitteln, wie fest der Stift auf die Oberfläche gedrückt wird.
  • Einige Modelle können überdies auch den Neigungswinkel des Stiftes ermitteln.

Grafikprogramme können durch diese zusätzlichen Informationen ein realistischeres Verhalten der simulierten Stifte und Pinsel ermöglichen. Induktive Touchscreens sind wegen des deutlich höheren Energiebedarfs für portable Geräte weniger geeignet.

Anwendungsbeispiele für induktive Touchscreens finden sich bei Tablet PCs, Grafiktabletts und Bildschirmen mit integriertem Grafiktablett.

Anwendungsbeispiele für hybride Systeme

Diese Systeme nutzen mehrere Techniken, um gegenseitige Nachteile auszugleichen.

  • Samsung Galaxy Note und Nachfolger
    • Es wird die kapazitive Technik für die Handeingabe verwendet und die induktive für den S-Pen, wobei die induktive Technik erhöhte Priorität hat.
  • Microsoft Surface Pro
  • iPad Pro
  • Diverse Grafiktablets mittlerer bis höherer Preisklasse
    • Stift wird gegenüber Hand priorisiert, damit ein ungestörtes Schreiben möglich ist

Anwendungsbeispiele für optische Touchscreens

  • Messgeräte
  • Bankterminals
  • HP-150
  • Sony PRS-650 eReader
  • Kindle Touch
  • Tolino Shine
  • Evoluce ONE (optische Sensoren verfolgen eine unbegrenzte Zahl an Berührungen auf oder über der Oberfläche)