Je nach Branche sind Touch-Displays ganz verschiedenen Einflüssen ausgesetzt. Bei herstellenden Prozessen entstehen oft Staub und Dreck, die das Display zerkratzen. In feuchten Umgebungen kann hingegen Schimmel im Inneren des Displays entstehen. Daher haben angepasste funktionale Beschichtungen ihre unbestrittene Daseinsberechtigung. Sie machen Displays robuster und weniger anfällig gegenüber äußeren Einflüssen und Vandalismus. Unter Umständen schützen sie sogar vor Krankheiten, zum Beispiel in der Medizintechnik, wenn viele Finger auf demselben Gerät herumdoktern.
Allerdings ist es mit einer Beschichtung allein nicht getan. Durch jede Schicht entstehen Abhängigkeiten zwischen dem System und seinen Komponenten, die in ihrer Gesamtheit überprüft werden müssen. Ein simpler Austausch von Bauteilen ist nicht ohne Weiteres möglich. Vielmehr muss bei jeder Veränderung die Kombination der verbauten Elemente neu bewertet und entsprechend umgesetzt werden. Das gilt auch schon für nicht-beschichtete Displays. Zum Beispiel werden noch immer altgediente Materialien wie ITO-Keramik (Indium Tin Oxide) für gebogene oder gar flexible Displays und deren Komponenten eingesetzt. Für preiswerte und transparente leitfähige Strukturen ist die ITO-Schicht zwar die aktuell gängigste Technik, aufgrund der Sprödheit der ITO-Keramik ist sie aber denkbar ungeeignet für solche Anwendungen. Alternativen wie beispielsweise Silber- oder Kohlenstoff-Nanotubes haben wiederum ihre eigenen Besonderheiten. Doch gerade bei zusätzlichen Display-Beschichtungen, sei es innen oder außen, kann es zu Fehlinterpretationen kommen, wenn der Auswertungsalgorithmus nicht mehr versteht, was der Nutzer durch seine Berührung bewirken will. Bei Tablets, Smartphones
und anderen Commodity-Displays wäre das kein großes Drama. Bei industriellen Anwendungen können falsche Befehle jedoch gravierende Folgen haben.
Probleme durch Vibrationen, elektrische Felder und EMV
Es ist ein in der Industrie weit verbreiteter Irrglaube, dass PCAP (Projected Capacitive) ein Synonym für Touch-Displays sei. Dies ist schlichtweg falsch. Hersteller müssen sich von der Vorstellung lösen, dass alleine die Implementierung eines geläufigen Begriffs alle Beteiligten zufriedenstellen kann. PCAP ist eine Methodenbeschreibung, das heißt eine technische Konfiguration und kein fertiges, fest definiertes Produkt. Es hat zwar tatsächlich einen Vorteil gegenüber resistiven Sensoren, indem es von Haus aus weniger anfällig für Vandalismus ist. Allerdings muss es nach jeder zusätzlichen Beschichtung neu initialisiert beziehungsweise kalibriert werden. Je nach Einsatzgebiet und Hersteller sind dafür unterschiedliche Hardware und Prozesse notwendig. Vergleichbar ist das etwa mit einem Auto, bei dem die Scheibe durch Panzerglas ersetzt wird. In diesem Fall müssen ebenfalls die Stoßdämpfer und die Bremsen angepasst werden.
Das zentrale Problem für beschichtete Displays sind die äußeren Einflüsse, etwa dauerhafte Vibrationen, elektrische Felder oder gar elektromagnetische Strahlung und instabile Massekonzepte. Der Algorithmus im Mikrocontroller, dem Gehirn unter den verbauten Komponenten, muss daher erkennen können, ob ein Befehl von einer Berührung herrührt oder ob Störfaktoren die Ladungen verschieben. Je intelligenter der Mikrocontroller ist, desto besser und sicherer ist der Touch-Sensor. Dafür ist es aber wichtig zu wissen, wie viele Berührungen respektive Ladungsverschiebungen er überhaupt zeitgleich detektieren und auswerten muss. In taktischen oder Gaming-Anwendungen müssen Algorithmen in der Lage sein, bis zu 50 Berührungen gleichzeitig zu erkennen. Für gewöhnliche Display-Anwendungen reicht es dagegen, wenn zwei Berührungen zeitgleich berechnet werden können. Damit lassen sich die wichtigsten Aktionen wie Auswählen, Wischen, Drehen und Zoomen realisieren.
Die Algorithmen sind von der „Brainware“ und der Rechenleistung abhängig. Je mehr Berührungen erkannt, berechnet und umgesetzt werden müssen, desto länger dauert der Vorgang. Klugen Algorithmen wird freilich mehr Mikrocontroller-Performance zur Verfügung gestellt, um einen Befehl in der gegebenen Latenzzeit auch tatsächlich ausführen zu können. Je nach Branche ist dieses Vorgehen sicherheitsrelevant.
Natürlich besteht auch die Möglichkeit, die Algorithmen als Treiber zu programmieren und auf leistungsfähige externe GPUs auszulagern. Oft werden aber preiswerte, vorprogrammierte und direkt verbaute Chips genutzt, obwohl diese meist nicht ohne weiteres updatebar sind. Indes können Lösungen, die sich einfach aktualisieren lassen, leichter ausgetauscht beziehungsweise der benötigten Rechenleistung und Funktionalität angepasst werden. Jedoch entstehen dadurch mehr Schnittstellen und somit höhere Kosten sowie aufwendigere Qualifikationsmaßnahmen. Letztlich entscheidet auch hier die geforderte Fehlertoleranz für das System.