Microsoft został przyłapany na automatycznym dodawaniu linii „Co-Authored-by Copilot” do commitów Git w Visual Studio Code, nawet gdy programiści całkowicie wyłączyli funkcje AI. [Funkcja została wdro

Źródło zdjęcia: The Decoder
Microsoft został przyłapany na automatycznym dodawaniu linii „Co-Authored-by Copilot” do commitów Git w Visual Studio Code, nawet gdy programiści całkowicie wyłączyli funkcje AI. , co wywołało falę krytyki w społeczności deweloperów na GitHub i Hacker News.

Kanadyjski operator wprowadził kontrowersyjną technologię AI modyfikującą akcenty agentów z zagranicznych centrów obsługi, co wywołało krytykę związków.

SAP inwestuje miliard euro w Prior Labs, tworząc laboratorium AI dla danych strukturalnych. Jednocześnie blokuje nieautoryzowane agenty AI.
Problem został zauważony przez użytkowników, którzy odkryli, że ich commity są oznaczane jako współautorskie z Copilotem, mimo że nie korzystali z asystenta AI podczas pisania kodu. Funkcja działała ukrycie w oknie commitów, co mogło stwarzać problemy prawne związane z prawami autorskimi oraz komplikacje dla firm z restrykcyjnymi politykami dotyczącymi AI.
Zmiana została wprowadzona w sposób budzący wątpliwości co do procesów kontroli jakości w Microsofcie. Menedżer produktu przeforsował modyfikację, główny inżynier zatwierdził ją bez żadnego opisu, a następnie została natychmiast scalona z główną gałęzią kodu. Taki sposób wprowadzania zmian w tak popularnym narzędziu jak VS Code wzbudził obawy społeczności deweloperów co do transparentności procesów decyzyjnych w firmie.
Szczególnie niepokojące było to, że funkcja działała ukrycie w tle, bez wiedzy użytkowników. Deweloperzy mogli przez długi czas nie zdawać sobie sprawy, że ich commity są błędnie oznaczane jako współautorstwo z AI, co mogło wpływać na dokumentację ich pracy oraz procesy audytu kodu w firmach.
Automatyczne oznaczanie commitów jako współautorskich z Copilotem wywołało poważne obawy w kontekście prawnym. Firmy z restrykcyjnymi politykami dotyczącymi używania AI w procesie rozwoju oprogramowania mogły nieświadomie naruszać wewnętrzne regulacje. Dodatkowo, błędne oznaczenie autorstwa mogło stwarzać problemy związane z prawami autorskimi i właścią intelektualną kodu.
Społeczność deweloperów wyraziła także podejrzenia, że Microsoft mógł próbować sztucznie zawyżać statystyki użycia Copilota, co mogłoby wpływać na raportowanie sukcesu produktu oraz decyzje biznesowe oparte na tych danych. Takie praktyki mogłyby podważać zaufanie do metryk użycia AI w rozwoju oprogramowania.
Po fali krytyki Dmitriy Vasyura przyznał się do błędu i zobowiązał się do cofnięcia domyślnych ustawień w nadchodzącej wersji 1.119, co pokazuje, że Microsoft poważnie potraktował feedback społeczności.