Bringen Sie Bilder mit Hand Expression AI zum Sprechen: Ihr praktischer Leitfaden
Hallo, ich bin Jake Morrison, und ich bin begeistert von der KI-Automatisierung, die Menschen tatsächlich hilft, zu kreieren. Heute erkunden wir eine neue leistungsstarke Fähigkeit: wie man Bilder mit Hand Expression AI zum Sprechen bringt. Stellen Sie sich vor, Sie erwecken Ihre statischen Bilder zum Leben, nicht nur mit Lippenbewegungen, sondern indem Sie eine Schicht authentischer menschlicher Kommunikation durch Gesten hinzufügen. Es geht nicht nur um Neuheit; es geht darum, das Geschichtenerzählen zu verbessern, das Engagement zu steigern und visuell ansprechenderen Content zu schaffen.
Seit Jahren war die Animation von Gesichtern in Bildern ein großes Hindernis. Natürliche Handbewegungen hinzuzufügen schien noch unerreichbarer. Doch mit den Fortschritten in der KI, insbesondere in der Posenschätzung und in generativen gegnerischen Netzwerken (GANs), können wir dies jetzt mit erstaunlicher Präzision und Leichtigkeit erreichen. Dieser Leitfaden erklärt Ihnen die praktischen Schritte, Werkzeuge und Überlegungen, um heute mit Hand Expression AI Bilder zum Sprechen zu bringen.
Warum Handgesten für sprechende Bilder wichtig sind
Wenn wir kommunizieren, sind unsere Hände fast so ausdrucksstark wie unsere Gesichter. Sie unterstreichen Punkte, vermitteln Emotionen, weisen auf Richtungen hin und fügen eine Schicht Authentizität hinzu, die der reinen Gesichtsanimation oft fehlt. Denken Sie an einen Moderator, der ein Konzept erklärt: seine Hände sind aktiv. Ein Erzähler, der von einem Ereignis erzählt: seine Gesten fügen Drama hinzu. Wenn man die Handbewegungen aus „sprechenden“ Bildern weglässt, werden sie weniger menschlich und weniger ansprechend. Bilder tatsächlich mit Hand Expression AI zum Sprechen zu bringen bedeutet, eine vollständiger und überzeugender Illusion von Leben zu schaffen.
Das Hinzufügen von Handgesten kann die Klarheit Ihrer Botschaft erheblich verbessern. Es kann auch die emotionale Verbindung verstärken. Eine leichte Handbewegung, ein zeigender Finger oder eine beruhigende Geste können dramatisch verändern, wie ein Zuschauer das animierte Bild wahrnimmt. Deshalb ist es so wertvoll, zu lernen, wie man mit Hand Expression AI Bilder zum Sprechen bringt, für Content Creators, Marketer, Educators und jeden, der versucht, dynamischere visuelle Erzählungen zu erstellen.
Verstehen der Technologie hinter Hand Expression AI
Bevor wir in das „Wie machen“ eintauchen, lassen Sie uns kurz die zugrunde liegende Technologie besprechen. Sie müssen kein KI-Experte sein, aber ein grundlegendes Verständnis hilft bei der Problemlösung und um informierte Entscheidungen zu treffen. Um Bilder mit Hand Expression AI zum Sprechen zu bringen, arbeiten mehrere KI-Modelle zusammen:
- Posenschätzung: Diese KI identifiziert die Schlüsselpunkte am menschlichen Körper, einschließlich der Hände, in einem Bild oder Video. Sie kartiert das „Skelett“ der Person, damit die KI die Position und Ausrichtung der verschiedenen Körperteile verstehen kann.
- Erkennung von Gesichtspunkten: Ähnlich wie die Posenschätzung, aber auf das Gesicht fokussiert, identifiziert sie Punkte um den Mund, die Augen, die Nase usw., die entscheidend für präzise Lippenbewegungen sind.
- Generative KI (GANs / Diffusionsmodelle): Diese sind die Arbeitstiere, die neue Pixel generieren. Sie nehmen die Daten zur Pose und den Gesichtspunkten und „zeichnen“ dann die neuen Bilder, lassen die Hände sich bewegen und synchronisieren die Lippen, während sie den Stil und das Aussehen des Originalbildes beibehalten.
- Audioverarbeitung: Diese Komponente analysiert das Eingangs-Audio, um Sprachmuster, Phoneme und sogar emotionale Hinweise zu extrahieren, die dann die Gesichts- und Handanimationen informieren.
Die Kombination dieser Elemente ermöglicht es uns, Bilder mit Hand Expression AI tatsächlich zum Sprechen zu bringen und ein statisches Bild in eine dynamische, sich bewegende Figur zu verwandeln.
Loslegen: Werkzeuge und Plattformen für die Sprachsynthese von Bildern mit Hand Expression AI
Die gute Nachricht ist, dass Sie keine KI-Modelle von Grund auf programmieren müssen. Mehrere Plattformen und Werkzeuge tauchen auf, die diese Prozesse vereinfachen. Hier sind einige Kategorien und Beispiele, die Sie in Betracht ziehen sollten:
1. Cloud-basierte KI-Videogeneratoren
Dies sind oft der einfachste Einstieg. Sie laden ein Bild hoch, liefern Audio und die Plattform kümmert sich um die KI-Verarbeitung. Suchen Sie nach Funktionen, die speziell die Generierung von Handgesten oder „komplette Körperanimation“ erwähnen.
- HeyGen: Bekannt für seine realistischen Avatare und die Lippenbewegungssynchronisation. Obwohl das Hauptziel darin besteht, sprechende Avatare aus Text oder Audio zu erstellen, beginnen die neuesten Updates und Funktionen für benutzerdefinierte Avatare, eine nuancierte Körpersprache einzubeziehen, einschließlich der Hände. Normalerweise würden Sie einen bestehenden Avatar verwenden oder einen mit Gestenfähigkeiten erstellen.
- Synthesia: Ähnlich wie HeyGen bietet Synthesia eine Vielzahl von KI-Avataren. Ihre fortschrittlicheren Optionen für benutzerdefinierte Avatare und vollständige Körpermodelle sind der Ort, an dem Sie die Fähigkeit finden, natürlicher wirkende Handbewegungen gleichzeitig mit der Sprache zu generieren.
- DeepMotion: Obwohl es sich hauptsächlich auf die Animation von 3D-Charakteren aus Videos konzentriert, kann DeepMotion’s Animate 3D ein 2D-Video nehmen und eine 3D-Bewegung generieren, die dann auf eine 2D-Bild-Puppe angewendet werden könnte. Es ist ein fortgeschrittenerer Workflow, bietet jedoch hohe Kontrolle.
2. Open-Source KI-Modelle (für Technikbegeisterte)
Wenn Sie mit Python vertraut sind und Modelle lokal (oder auf einem Cloud-GPU-Dienst) ausführen können, bieten Open-Source-Projekte mehr Kontrolle und Anpassungsmöglichkeiten. Hier erscheint oft das Neueste zuerst.
- SadTalker (und ähnliche Projekte): Obwohl SadTalker bekannt ist für seine realistische Gesichtsanimation aus einem einzigen Bild und Audio, beginnen Erweiterungen und verwandte Projekte, sich mit der Bewegung des gesamten Körpers zu befassen. Sie müssten normalerweise die Ausgabe von SadTalker mit einem anderen Modell zur Posenschätzung und -generierung kombinieren, um die Handgesten effektiv zu integrieren. Dieser Ansatz erfordert mehr technische Konfiguration, bietet jedoch enorme Flexibilität, um Bilder mit Hand Expression AI genau so zum Sprechen zu bringen, wie Sie es möchten.
- ControlNet (mit Stable Diffusion): ControlNet ist eine leistungsstarke Erweiterung für Stable Diffusion, die es Ihnen ermöglicht, die Bildgenerierung mithilfe verschiedener Eingaben, einschließlich Posenschätzung (OpenPose), zu steuern. Sie könnten ein Bild mit einer spezifischen Pose generieren und dann bestimmte Teile animieren. Es ist ein fortgeschrittener, mehrstufiger Prozess zur Generierung dynamischer Handgesten.
3. Spezialisierte KI-Animationssoftware
Einige Softwarelösungen tauchen auf, um die Lücke zwischen traditioneller Animation und KI zu schließen, und bieten intuitivere Kontrolle über KI-generierte Bewegungen.
- Achten Sie auf aufkommende Werkzeuge, die speziell „AI-Pose-Transfer“ oder „Gesture Animation“ vermarkten. Das Feld entwickelt sich schnell.
Schritt für Schritt: So bringen Sie Bilder mit Hand Expression AI zum Sprechen
Lassen Sie uns einen praktischen Arbeitsablauf skizzieren. Wir konzentrieren uns auf die Verwendung eines cloud-basierten KI-Videogenerators, da dies der zugänglichste Ausgangspunkt für die meisten Nutzer ist. Wenn Sie den Open-Source-Weg wählen, bleiben die Prinzipien ähnlich, aber die Ausführung erfordert mehr Codierung und Modellspezifikation.
Schritt 1: Wählen Sie Ihr Quellbild aus
Die Qualität Ihres Quellbildes ist entscheidend. Für die besten Ergebnisse, wenn Sie Bilder mit Hand Expression AI zum Sprechen bringen:
- Klare Porträt-/Oberkörperaufnahme: Stellen Sie sicher, dass das Gesicht der Person deutlich sichtbar, gut beleuchtet und zur Kamera gewandt ist. Für Handgesten ist ein Oberkörperbild, bei dem die Hände sichtbar sind (auch wenn sie zu Beginn unbeweglich sind), ideal.
- Hohe Auflösung: Bilder mit hoher Auflösung erzeugen schärfere und detailliertere Animationen.
- Neutrale Mimik (optional, aber empfohlen): Ein neutraler Gesichtsausdruck und eine entspannte Handhaltung geben der KI eine gute Grundlage.
- Einfacher Hintergrund (optional): Ein klarer, aufgeräumter Hintergrund kann der KI helfen, sich auf die Person zu konzentrieren, obwohl viele Werkzeuge gut im Hintergrundtrennen sind.
Schritt 2: Bereiten Sie Ihr Audio-Skript vor
Ihre Audiodatei wird die Lippenbewegung steuern und entscheidend die Handgesten beeinflussen. Denken Sie darüber nach, was die Person im Bild sagen soll und wie sie dabei natürlich gestikulieren würde.
- Klarer Ausdruck: Verwenden Sie eine Audioaufnahme von hoher Qualität mit klarer Aussprache.
- Natürlicher Rhythmus: Vermeiden Sie ein zu schnelles oder zu langsames Sprechen.
- Berücksichtigen Sie Emotionen: Wenn Ihr Audio Emotionen überträgt, könnte die KI subtile Hinweise wahrnehmen, um Gesten zu steuern, obwohl dies noch ein sich entwickelndes Feld ist.
- Szenario für Gesten: Wenn Sie bestimmte Gesten im Kopf haben (zum Beispiel „nach links zeigen“, „die Schultern heben“), versuchen Sie, diese in Ihrem Skript zu beschreiben oder zu planen, wo sie vorkommen würden. Einige fortgeschrittene Tools ermöglichen Gesteneingaben.
Schritt 3: Wählen Sie Ihre KI-Plattform
Je nach den zuvor besprochenen Tools wählen Sie die Plattform, die am besten zu Ihren Bedürfnissen und Ihrem technischen Komfortlevel passt. Für diesen Leitfaden nehmen wir an, dass Sie eine Plattform wie HeyGen oder Synthesia verwenden, die die Erstellung von Avataren mit Körpersprache anbietet.
Schritt 4: Laden Sie das Bild und das Audio hoch
Greifen Sie auf Ihre gewählte Plattform zu. Sie finden normalerweise eine Option zum „Erstellen eines neuen Videos“ oder „Avatar generieren“.
- Laden Sie Ihr Bild hoch: Die Plattform verarbeitet es, um die Person zu identifizieren.
- Laden Sie Ihr Audio hoch: Oder verwenden Sie die Text-to-Speech (TTS)-Funktion der Plattform, wenn Sie ein Textskript vorbereitet haben. Wenn Sie TTS verwenden, könnten Sie in der Lage sein, eine Stimme auszuwählen, die zum gewünschten Ton passt.
Schritt 5: Konfigurieren Sie die Animationseinstellungen (entscheidend für die Hände!)
Hier werden Sie die KI anweisen, die Bilder mit Hand Expression AI sprechen zu lassen. Suchen Sie nach Einstellungen zu:
- Avatar-Typ/Stil: Wenn Sie die Wahl haben, wählen Sie einen Avatar-Typ, der die Animation des gesamten Körpers oder des Oberkörpers unterstützt.
- Gesten-/Körpersprache-Optionen: Viele Plattformen bieten mittlerweile Schieberegler oder Dropdown-Menüs für „Gestenintensität“, „Handbewegung“ oder „Körpersprache“. Experimentieren Sie damit.
- Voraufgezeichnete Gesten: Einige Tools bieten eine Bibliothek mit voraufgezeichneten Gesten, die Sie an bestimmten Stellen Ihrer Zeitleiste einfügen können. Zum Beispiel könnten Sie eine „zeigen“-Geste hinzufügen, wenn der Sprecher eine bestimmte Richtung erwähnt.
- Einladungen zur Ausdruck: Einige fortschrittliche Plattformen ermöglichen es Ihnen, Texteingaben für spezifische Gesten hinzuzufügen (zum Beispiel „[WINK] Hallo!“). Überprüfen Sie die Dokumentation der Plattform auf unterstützte Befehle.
- Hintergrund: Entscheiden Sie, ob Sie einen transparenten Hintergrund, eine einfarbige Fläche oder den Hintergrund des Originalbildes behalten möchten.
Schritt 6: Generieren und Überprüfen
Sobald Sie Ihre Einstellungen konfiguriert haben, starten Sie den Generierungsprozess. Dies kann von einigen Minuten bis zu einer Stunde dauern, je nach Plattform, Videolänge und Komplexität.
- Überprüfen Sie die Ausgabe: Sehen Sie sich das generierte Video genau an. Achten Sie auf die Lippenbewegungen, Gesichtsausdrücke und vor allem auf die Handbewegungen.
- Überprüfen Sie Artefakte: Achten Sie auf Verzerrungen, Flimmern oder seltsame Verzerrungen, insbesondere an Händen und Armen.
- Bewerten Sie die Natürlichkeit: Scheinen die Gesten natürlich und passend zum Vortrag? Verbessern sie die Botschaft oder lenken sie die Aufmerksamkeit ab?
Schritt 7: Iterieren und Verfeinern
Es ist sehr selten, dass Ihr erster Versuch perfekt ist. Hier kommt die Iteration ins Spiel:
- Gestenintensität anpassen: Wenn die Hände zu hektisch sind, reduzieren Sie die Intensität. Wenn sie zu steif sind, erhöhen Sie sie.
- Different Gesten/Einvitationen ausprobieren: Wenn bestimmte Gesten nicht funktionieren, versuchen Sie verschiedene voraufgezeichnete Gesten oder reformulieren Sie Ihre Texteingaben.
- Audio anpassen: Manchmal kann eine leichte Modifikation des Tempos oder des Akzents in Ihrem Audio die Gestengenerierung der KI beeinflussen.
- Mit Quellbildern experimentieren: Wenn die KI Schwierigkeiten hat, die Hände zu generieren, versuchen Sie ein anderes Quellbild, bei dem die Hände in einer etwas anderen Ausgangsposition sind.
Dieser iterative Prozess ist entscheidend, um die Kunst des Sprechens von Bildern mit der KI für Gesten effektiv zu meistern.
Beste Praktiken für realistische Handgesten
Um die überzeugendsten Ergebnisse beim Sprechen von Bildern mit der KI für Gesten zu erzielen, beachten Sie diese besten Praktiken:
- Einfach anfangen: Erwarten Sie nicht, dass Sie bei Ihren ersten Versuchen eine komplexe, nuancierte Choreografie erstellen. Beginnen Sie mit allgemeinen Gesten und entwickeln Sie sich dann weiter.
- Der Kontext ist entscheidend: Stellen Sie sicher, dass die Gesten im Kontext des Vortrags Sinn ergeben. Eine Handgeste für „Hallo“ ist natürlich; ein willkürliches Applaudieren mitten im Satz ist es möglicherweise nicht.
- Subtilität statt Übertreibung: Oft sind subtile Handbewegungen überzeugender als übertriebene Gesten, insbesondere bei professionellen oder edukativen Inhalten.
- Kohärenter Stil: Versuchen Sie, einen kohärenten Stil für Ihre generierte Animation beizubehalten. Wenn das Gesicht hyperrealistisch ist, sollten die Hände diesem Realismus entsprechen.
- Den Hintergrund berücksichtigen: Stellen Sie sicher, dass die Handbewegungen nicht in einem überladenen Hintergrund untergehen oder sich mit diesem überlagern. Ein klarer Raum um die Person ist hilfreich.
- Unterschiedliche Stimmen testen: Für TTS können unterschiedliche Stimmen manchmal zu leicht unterschiedlichen Animationsstilen führen, einschließlich der Gesten.
Anwendungsfälle für sprechende Bilder mit Handgesten
Die Fähigkeit, Bilder mit der KI für Gesten sprechen zu lassen, eröffnet eine Welt von Möglichkeiten:
- Marketing & Werbung: Erstellen Sie Produkt-Erklärungsvideos, Testimonials oder Social-Media-Werbung, bei denen ein statisches Bild direkt mit natürlichen Gesten zum Publikum spricht.
- Lernen & Ausbildung: Verwandeln Sie statische Diagramme oder Charakterillustrationen in interaktive Trainer, wodurch der Bildungsinhalt dynamischer und einprägsamer wird.
- Geschichten erzählen & Unterhaltung: Erwecken Sie Charaktere aus Comics, Illustrationen oder historischen Fotos zum Leben und verleihen Sie den Erzählungen eine neue Dimension.
- Zugänglichkeit: Verbessern Sie potenziell den Inhalt für diejenigen, die von visuellen Hinweisen zusätzlich zum Audio profitieren, obwohl dieses Feld sorgfältige Entwicklung erfordert.
- Personalisierter Inhalt: Stellen Sie sich vor, personalisierte Videonachrichten aus einem statischen Bild eines geliebten Menschen oder einer fiktiven Figur zu generieren.
- Virtuelle Assistenten: Erstellen Sie menschlichere virtuelle Assistenten, indem Sie ihnen ausdrucksstarke Handgesten geben.
Die Anwendungen sind vielfältig und verbessern das Engagement, indem sie Inhalte in vielen Bereichen ansprechender machen. Wenn Sie Bilder mit der KI für Gesten sprechen lassen, animieren Sie nicht nur; Sie fügen eine Schicht menschlicher Verbindung hinzu.
Grenzen und zukünftige Perspektiven
Obwohl bemerkenswert, befindet sich die Technologie, die Bilder mit der KI für Gesten spricht, noch im Entwicklungsprozess. Aktuelle Einschränkungen umfassen:
- Artefakte und unnatürliche Bewegungen: Manchmal können die Hände verzerrt, verschwinden oder sich unüberzeugend bewegen, insbesondere bei komplexen Gesten oder schnellen Bewegungen.
- Begrenzte Nuance: Das Erfassen des gesamten Spektrums menschlicher Gesten und ihrer subtilen Bedeutungen ist unglaublich komplex. Die KI hat immer noch Schwierigkeiten mit sehr nuancierten oder kulturell spezifischen Gesten.
- Rechenaufwand: Die Erzeugung einer hochwertigen Animation mit Handgesten kann rechenintensiv sein, was zu längeren Verarbeitungszeiten oder höheren Kosten auf Cloud-Plattformen führt.
- Abhängigkeit vom Quellbild: Die Qualität und Pose des originalen Bildes haben einen signifikanten Einfluss auf die Ausgabe.
Dennoch ist das Entwicklungstempo der KI unglaublich schnell. Wir können erwarten, Folgendes zu sehen:
- Verbesserte Realität: Natürlichere und flüssigere Handbewegungen mit weniger Artefakten.
- Erhöhter Kontrolle: Feinere Kontrolle über spezifische Handgesten, die es den Nutzern ermöglicht, die KI präziser zu „steuern“.
- Echtzeit-Generierung: Die Fähigkeit, diese Animationen in nahezu Echtzeit zu erzeugen, wodurch interaktive Live-Anwendungen möglich werden.
- Integration mit 3D-Modellen: Eine nahtlose Kombination aus 2D-Animationsbildern und in 3D generierten Elementen für noch dynamischere Szenen.
Die Fähigkeit, Bilder mit der KI von Gestik ausdrücken zu lassen, wird immer besser, zugänglicher und leistungsstärker.
Fazit
Die Ära statischer Bilder ist im Rückgang. Mit der Macht der KI können wir unseren visuellen Inhalten Leben einhauchen auf eine Weise, die einst der Science-Fiction vorbehalten war. Zu lernen, wie man Bilder mit der KI von Gestik sprechen lässt, wird eine immer wertvollere Fähigkeit für jeden, der digitale Inhalte erstellt. Es geht mehr darum, Pixel zu bewegen; es geht darum, Emotionen zu vermitteln, das Verständnis zu verbessern und eine stärkere Verbindung zu Ihrem Publikum herzustellen.
Beginnen Sie noch heute mit dem Experimentieren. Wählen Sie ein Bild, nehmen Sie Audio auf und erkunden Sie die verfügbaren Werkzeuge. Sie werden überrascht sein, wie schnell Sie ein einfaches Bild in einen fesselnden und gestikulierenden Sprecher verwandeln können. Die Zukunft der visuellen Kommunikation ist dynamisch, ausdrucksvoll und unglaublich aufregend. Nutzen Sie die Werkzeuge, die es Ihnen ermöglichen, Bilder mit der KI von Gestik sprechen zu lassen und entfalten Sie neue Dimensionen in Ihrer kreativen Arbeit.
FAQ: Bilder mit der KI von Gestik sprechen lassen
Q1: Welche Arten von Bildern funktionieren am besten, um sprechende Avatare mit Handgesten zu erzeugen?
A1: Bilder, die eine klare Ansicht des Gesichts und des Oberkörpers der Person (einschließlich Hände und Arme) bieten, sind ideal. Gute Beleuchtung, hohe Auflösung und eine relativ neutrale Pose für Gesicht und Hände liefern die besten Ergebnisse. Komplexe Hintergründe können manchmal bewältigt werden, aber ein einfacherer Hintergrund kann der KI helfen, sich auf die Person zu konzentrieren.
Q2: Kann ich spezifische Handgesten steuern, oder erzeugt die KI sie automatisch?
A2: Das hängt von der Plattform ab. Viele cloudbasierte Tools bieten eine automatische Generierung von Gesten basierend auf dem Rhythmus des Audios und der wahrgenommenen Emotion. Fortgeschrittene Plattformen können eine Bibliothek von vorab aufgenommenen Gesten bereitstellen, die Sie zu bestimmten Punkten in Ihrer Zeitleiste hinzufügen können. Einige moderne Tools beginnen, mit Textaufforderungen (z.B. „[LINKS_HAENDEN]“) zu experimentieren, um spezifische Gesten zu lenken, aber das bleibt eine sich entwickelnde Funktion. Für eine sehr präzise Kontrolle wäre es notwendig, die KI-Generierung mit manueller Animation zu kombinieren oder Open-Source-Modelle mit Posenkontrolle (wie ControlNet) zu verwenden.
Q3: Wie lange dauert es, ein sprechendes Bild mit Handgesten zu erzeugen?
A3: Die Generierungszeit variiert erheblich je nach Plattform, der Länge Ihres Audio-/Videos und der Komplexität der Animation. Für kurze Clips (z.B. 30 Sekunden bis 1 Minute) können cloudbasierte Plattformen von einigen Minuten bis zu einer Stunde benötigen. Längere Videos oder komplexere Animationen benötigen natürlich mehr Zeit. Open-Source-Modelle, die auf lokaler Hardware betrieben werden, hängen auch stark von der Rechenleistung Ihres Computers (insbesondere der GPU) ab.
Q4: Gibt es ethische Überlegungen bei der Verwendung von KI, um Bilder mit der KI von Gestik sprechen zu lassen?
A4: Ja, absolut. Es ist entscheidend, diese Technologie verantwortungsbewusst zu nutzen. Stellen Sie immer sicher, dass Sie die erforderlichen Rechte oder Genehmigungen haben, um die Bilder und Audiodateien zu verwenden. Seien Sie transparent, wenn der Inhalt von der KI generiert wird, insbesondere in Kontexten, in denen Authentizität wichtig ist (z.B. Nachrichten, Zeugenaussagen). Vermeiden Sie es, irreführende oder schädliche Inhalte zu erstellen, und seien Sie auf Deepfakes und das Potenzial für Missbrauch aufmerksam. Ethische Richtlinien sind noch in der Entwicklung, aber gesunder Menschenverstand sowie der Respekt für geistiges Eigentum und individuelle Bilder sind von größter Bedeutung.
🕒 Published: