• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Es regnet, ist neblig und kalt, alle sind krank und der Chef wird zunehmend cholerisch. Das Thema des Monats ist also folgerichtig --> Das Grau(en)
    Wir sind gespannt, war Euch dazu einfällt! Zum Wettbewerb --> Klick
  • Auch in diesem Jahr möchten wir auf unserer Webseite mit einem passenden Banner etwas weihnachtliche Stimmung verbreiten. Jeder Apfeltalker kann, darf und sollte uns einen Banner-Entwurf zusenden, wie und wo das geht, könnt Ihr hier nachlesen --> Klick

Michael Reimann

Geschäftsführung
AT Administration
Registriert
18.03.09
Beiträge
9.150
OpenAILogo-700x401.jpg


Michael Reimann
Die neueste Entwicklung in der Tech-Welt betrifft Apple und ihre Mitarbeiter:innen. Das Unternehmen hat kürzlich einen internen Beschluss gefasst, wonach seine Mitarbeiter:innen den Einsatz generativer KI-Plattformen, einschließlich des beliebten ChatGPT und GitHub's Copilot, bei der Arbeit nicht mehr nutzen dürfen.

Datenschutzbedenken führen zu Einschränkungen​


Apple äußerte in dem internen Memo Bedenken hinsichtlich möglicher Datenschutzprobleme. Diese KI-Plattformen könnten vertrauliche Daten von Mitarbeiter:innen sammeln, warnt das Unternehmen. Besondere Sorge besteht darüber, dass von den Entwicklern eingegebener Code und andere vertrauliche Informationen abgefangen und von Dritten verwendet werden könnten.

Bedenken gehen über Apple hinaus​


Apple ist allerdings nicht das einzige Unternehmen, das seine Mitarbeite:innen vor dem Einsatz von KI-Plattformen schützt. Andere Giganten wie JPMorgan Chase und Verizon haben ähnliche Einschränkungen eingeführt. Amazon geht noch einen Schritt weiter und fordert seine Ingenieur:innen auf, eigene interne KI-Tools statt Lösungen von Drittanbietern zu verwenden.

Apples eigene KI-Initiativen​


Die gleichen Quellen deuten darauf hin, dass Apple an seinem eigenen KI-Modell arbeitet. Unter der Leitung von John Giannandrea, der 2018 von Google zu Apple wechselte, soll das Unternehmen einen geheimen KI-Test durchführen. Codename: "Bobcat". Dies könnte eine generative natürliche Sprache für Siri bedeuten, Apples Sprachassistenten. Ein genaues Veröffentlichungsdatum für diese Technologie steht jedoch noch aus.

Siri steht vor einer Verbesserung​


In jüngster Zeit gab es Beschwerden von Apple-Mitarbeiter:innen über die veraltete Technologiebasis von Siri. Das Unternehmen hat erkannt, dass es in Sachen KI-Technologie hinterherhinkt, und scheint nun einen Weg gefunden zu haben, sich neu zu positionieren.

Es ist offensichtlich, dass die KI den Umgang mit Technologie verändert. Unternehmen wie Apple müssen sicherstellen, dass sie auf der Höhe der Zeit bleiben, ohne dabei die Datenschutzrechte ihrer Mitarbeiter:innen zu gefährden.

Quelle: 9to5Mac

Den Artikel im Magazin lesen.
 

Benutzer 250503

Gast
Die Neugierde der Menschheit ist nicht zu bremsen und wenn man sieht was sich in den sozialen Medien für ein Shitstorm ergießt zum Thema Vorsicht im Umgang und Regulierung dieses Molochs, ist der Zug längst abgefahren.
Jansen Video zum Thema Bard auf cT3000 zeigt wie schnell das in der Evolution dieser Technologie geht und welche Irrsinnigen Ergebnisse geliefert werden.
 

MichaNbg

Brauner Matapfel
Registriert
17.10.16
Beiträge
8.360
Ganz allgemein:
Die Frage ist immer, welchen Einfluss man mit einseitigen Moratorien und Regelungen hat oder ob es nicht sinnvoller ist, selbst aktiv mitzugestalten und so mehr Impact generiert als mit "halt! stop!".

Europa überschätzt seinen Einfluss ganz massiv in solchen Fragen. Den Rest der Welt und ganz speziell China interessiert es rein gar nicht, was wir hier an Bedenken haben oder ob wir den Einsatz von KI sogar verbieten. Da wird weiterentwickelt und eingesetzt und irgendwann bleibt uns sowieso nichts anderes mehr übrig, als auf den Zug aufzuspringen.

Es läuft immer so ab. Immer. Und jedes mal sehen wir in Europa nur die Rücklichter des Development Trains. Wenn wir aktiv werden sind Standards weltweit schon gesetzt, die Marktanteile verteilt und der Profitkuchen verspeist.

Und diesen Fehler tun wir immer wieder und wieder und wieder und wieder...
 

Benutzer 250503

Gast
Die Frage ist immer, welchen Einfluss man mit einseitigen Moratorien und Regelungen hat oder ob es nicht sinnvoller ist, selbst aktiv mitzugestalten und so mehr Impact generiert als mit "halt! stop!".
Das liest sich immer schön nur ist dem leider nicht so. Ist das Kind erwachsen und legt sein Flegelalter nicht ab wie erwartet wird das auch nichts mehr. Schadensbegrenzung ist danach das Wort der Stunde und die antiautoritären Elternschaften stehen meist gelähmt mit offenem Mund da und ringen nach Worten mit der ewig gleichen Ansage... "Damit konnte ja keiner rechnen und keiner hat das kommen sehen".🤣 In ganz kleinen Ausnahmen könnte das funktionieren aber in über 90% der Fälle gings schief.
 

MichaNbg

Brauner Matapfel
Registriert
17.10.16
Beiträge
8.360
Wie gesagt, die europäische Strategie hat ja richtig gut funktioniert. Wir sind ja quasi führend im IT-Sektor und die Welt rennt uns die Bude ein, weil jeder unsere Services und Applications haben möchte.
 

Benutzer 250503

Gast
Das eine hat mit dem anderen eher weniger zu tun und wird auch in diesem Fall schief gehen.
Faulheit und sich zurückzulehnen weils uns eh vorgekaut präsentiert wird ist die Problematik.
Innovation ist da keine und hat auch nichts mit den KI und der Verwendung und Erforschung zu tun.
In diesem Fall dreht sich's darum den Geist unerforscht aus der Flasche zu lassen und diesen nicht wieder hinein zu bekommen. Das sich die Probleme jetzt schon manifestieren ist auch vom Tisch zu wischen. Selbst die Entwickler ihrer eigenen Entwicklungen sprechen sich schon zur Vorsicht aus.
 
Zuletzt bearbeitet von einem Moderator:

MichaNbg

Brauner Matapfel
Registriert
17.10.16
Beiträge
8.360
Für mich gehört beides durchaus zusammen. Die einen wehren ab, zaudern, diskutieren. Die anderen schaffen Fakten.

Das muss man nicht gut finden, nicht falsch verstehen. Aber so ist es und das wird sich auch nicht ändern.

Deshalb: was ist besser? Aktiv mit gestalten oder jedes Mal aufs Neue überrollt und vor vollendete Tatsachen gestellt werden?
 

Benutzer 250503

Gast
Aber geh, das hat nichts mit Zaudern zu tun... umgekehrt sieht es genau anders aus, die Openai Entwickler mit MS im Hintergrund haben die LM in Form von ChatGPT3x und 4 auf die Menschheit losgelassen und partizipieren von deren Ergebnissen und der User ist zum Schlüsselelement geworden um die Ergebnisse zu verfeinern.

Problem an der Geschichte ist, das der geneigte User diese Ergebnisse weiterverwendet und zum größten Teil keine Verifizierung der Daten durchführt und sich meist gar nicht die Arbeit antut.
Der Erforschung an der Technologie muss keine Absage erteilt werden und das wäre auch nicht geschehen. In diesem Fall wurde die Büchse der Pandora geöffnet ohne wenn und aber.
 
Zuletzt bearbeitet von einem Moderator: