Install the app
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Notera: This feature may not be available in some browsers.
Du använder en lite för gammal webbläsare, du bör uppdatera den.
Allmäna spånerier om Sony och annat
- Trådstartare afe
- Start datum
martinot
Aktiv medlem
Jo, jag håller med om att macOS är snyggare än MS Windows, men jag tvivlar lite på att så värst många visar upp sitt operativsystem för omvärlden för att se rik och snygg ut.
Nej, de flesta av dessa har ingen aning om vilket operativsystem som de kör (har tex. hört några av mina hårfrisörskor kalla derad MacOS-system allt ifrån "safari" till "windows").
Det är designen och den lysande äppleloggan som räknas och är viktig att visa upp för många modemänniskor (skillnaden i innehållet är tämligen ganska oviktigt i de flesta fallen i de här kundgrupperna).
martinot
Aktiv medlem
Jo, men ta inte det där som fakta. Det är Martains gissningar och jag tror inte riktigt det stämmer.
Jag har i mitt yrke specialiserat mig på Windows-plattformen, men har en lång tidigare erfarenhet av nix-os i olika varianter.
Numera jobbar jag ihop med ett antal "nördar" som håller på med linux. Jag är väl också lite av en nörd på Windows iofs., men det hör till rollen när man jobbar med IT-säkerhet på bank .
Huromhelst så är det linux-nördarna som också kör Mac. Det finns en del saker man kan göra i mac-os för att på låg nivå manipulera nätverkspaket osv. och det finns bra utvecklade python-verktyg mm. Många hackers använder Mac.
Sen att alla stureplansnissar, blondinbella och RIX morronzoo m.fl. innemänniskor också gör det som Martain skriver stämmer också, men det är absolut inte den enda målgruppen.
I hela den grafiska industrin är Mac väl utbrett, liksom reklam och tidningsbranschen. Många webbutvecklare använder Mac mm. Därför har de tagit större andel på större företag i alla branscher.
Det som motverkat det är IT-avdelningarna för att det har inte funnits så bra möjligheter att underhålla en managerad plattform på Mac som med Windows där det finns en väl inkörd infrastruktur kring det.
Numera med modernare authenticeringsprotokoll och mer andel web services och manageringsverktyg för mobila enheter så har detta ändrats. IT-avdelningar kan inte stå emot trycket och det är bara att acceptera att Mac finns i de flesta större organisationer och det måste planeras för hur managering och säkerhet byggs med Mac-OS.
Att Apple inte har rack-servrar är nog klokt. Allt framöver blir molntjänster oavsett om man hostar det i egen infrastruktur eller hos någon extern leverantör eller har en hybridlösning. Själva järnet som står i datacentren och driver virtualiseringsplattformen är ganska osexigt och ointressant och det finns ingen anledning alls för Apple att ge sig in där. Tror tvärtom att det kommer bli mer generiska no-name saker som fyller upp det och det bara handlar om megaflops/dollar och storage, så även företag som HP, Dell, IBM/Lenovo samt storagetillverkare som Hitachi, HP, EMC, IBM m.fl. får nog en tuff framtid framöver.
Scenariot med 32-bits Windows XP-klienter och Novell eller Windows file-servers som körs på fysiskka rackmonterade servrar där jag får uppfattningn att du lever kvar mentalt efter alla år i Stockholms stad är passé.
Nog om detta för mig. Jag huserar på fotosidan för att foto och film är en hobby som är rolig och gör att man kan koppla bort från jobb ett tag och då är inte det här särskilt givande att diskutera här.
Oj, vilket enormt jätteinlägg (rena SÅ-klassen )!
Visst, den här tråden är en diversetråd där det ska vara tillåtet med lite sidodiskussioner, men det här är ju löjligt. Det kan väl få ha någon anknytning till Sonys kameror i alla fall.???
/Mats
!
Sten-Åke Sändh
Aktiv medlem
A6500 går att använda när den skriver ner bufferten, men det hjälper ju inte A99 II ett skvatt, eller hur?
Nä, jag bara konstaterar att dessa problem visste Sony om redan med A6300 och tidigare med. Så det borde de faktiskt fixat med A99 II. De kan ju uppenbarligen bättre nu.
PMD
Aktiv medlem
Jag gissar att det gäller rätt få av alla Mac-användare.Nej, de flesta av dessa har ingen aning om vilket operativsystem som de kör (har tex. hört några av mina hårfrisörskor kalla derad MacOS-system allt ifrån "safari" till "windows").
Det är designen och den lysande äppleloggan som räknas och är viktig att visa upp för många modemänniskor (skillnaden i innehållet är tämligen ganska oviktigt i de flesta fallen i de här kundgrupperna).
För telefoner däremot tror jag att det kan gälla för fler. Telefoner är ju något man visar upp hela tiden.
martinot
Aktiv medlem
Jag gissar att det gäller rätt få av alla Mac-användare.
För telefoner däremot tror jag att det kan gälla för fler. Telefoner är ju något man visar upp hela tiden.
För professionella och entusister så gäller det naturligtvis inte. Men vi verkar tyvärr bli en allt mindre grupp och som Apple allt mindre fokuserar på. Verkar som café- och modeaccessormänniskorna är en större och viktigare kundgrupp för Apple.
Fokus numera verkar vara på de som bara bryr sig om de yttre estetiska egenskaperna. Så tunn och snygg som möjligt. Funktionalitet och praktiskt användade verkar hamna allt mer längre ner som prioritet.
Tycker själv det är väldigt tråkigt. Var helt inställd att nu i höstas byta ut min gamla jobbdator, en MBP med en 3-4 år på nacken, emot en ny. När den nya ersättaren kom så blev jag dock väldigt besviken.
En självklar uppgradering blev istället ett stort vakum. Funderar på att antingen köpa den förra, 2015-års MBP, eller att avvakta tills nu efter CES och se vad som kommer på Windowssidan. Är fortfarande ganska villrådig här (något som är ganska ovanligt för att vara mig).
Sten-Åke Sändh
Aktiv medlem
Precis!
Eftersom det var den ursprungliga trådskaparens (innan diskussionen av nån alnledning flyttades till den här diversetråden) avsikt att just filma med macro/micro så kanske bildstabilisering vid macro är ganska relevant ändå.
Det påverkar i högsta grad valet av kamera mellan en som har inbyggd stabilisering (A6500) och en som inte har det (A6300), vilket är det som den ursprungliga tråden handlar om.
/Mats
Jag har läst åtminstone ett inlägg någonstans där man istället menat att stabilisering inte har någon större betydelse vid filmning men det beror väl kanske på hur många bilder per sekund man filmar i.
Sten-Åke Sändh
Aktiv medlem
Jo, men ta inte det där som fakta. Det är Martains gissningar och jag tror inte riktigt det stämmer.
Jag har i mitt yrke specialiserat mig på Windows-plattformen, men har en lång tidigare erfarenhet av nix-os i olika varianter.
Numera jobbar jag ihop med ett antal "nördar" som håller på med linux. Jag är väl också lite av en nörd på Windows iofs., men det hör till rollen när man jobbar med IT-säkerhet på bank .
Huromhelst så är det linux-nördarna som också kör Mac. Det finns en del saker man kan göra i mac-os för att på låg nivå manipulera nätverkspaket osv. och det finns bra utvecklade python-verktyg mm. Många hackers använder Mac.
Sen att alla stureplansnissar, blondinbella och RIX morronzoo m.fl. innemänniskor också gör det som Martain skriver stämmer också, men det är absolut inte den enda målgruppen.
I hela den grafiska industrin är Mac väl utbrett, liksom reklam och tidningsbranschen. Många webbutvecklare använder Mac mm. Därför har de tagit större andel på större företag i alla branscher.
Det som motverkat det är IT-avdelningarna för att det har inte funnits så bra möjligheter att underhålla en managerad plattform på Mac som med Windows där det finns en väl inkörd infrastruktur kring det.
Numera med modernare authenticeringsprotokoll och mer andel web services och manageringsverktyg för mobila enheter så har detta ändrats. IT-avdelningar kan inte stå emot trycket och det är bara att acceptera att Mac finns i de flesta större organisationer och det måste planeras för hur managering och säkerhet byggs med Mac-OS.
Att Apple inte har rack-servrar är nog klokt. Allt framöver blir molntjänster oavsett om man hostar det i egen infrastruktur eller hos någon extern leverantör eller har en hybridlösning. Själva järnet som står i datacentren och driver virtualiseringsplattformen är ganska osexigt och ointressant och det finns ingen anledning alls för Apple att ge sig in där. Tror tvärtom att det kommer bli mer generiska no-name saker som fyller upp det och det bara handlar om megaflops/dollar och storage, så även företag som HP, Dell, IBM/Lenovo samt storagetillverkare som Hitachi, HP, EMC, IBM m.fl. får nog en tuff framtid framöver.
Scenariot med 32-bits Windows XP-klienter och Novell eller Windows file-servers som körs på fysiskka rackmonterade servrar där jag får uppfattningn att du lever kvar mentalt efter alla år i Stockholms stad är passé.
Nog om detta för mig. Jag huserar på fotosidan för att foto och film är en hobby som är rolig och gör att man kan koppla bort från jobb ett tag och då är inte det här särskilt givande att diskutera här.
Visst, den här tråden är en diversetråd där det ska vara tillåtet med lite sidodiskussioner, men det här är ju löjligt. Det kan väl få ha någon anknytning till Sonys kameror i alla fall.???
/Mats
Nä, det är inte alls löjligt tycker jag. Skälet till att jag ställde frågan om vilken andel Mac OS har på arbetsstationerna var av en helt annan anledning än den du uppfattat. Oavsett hur det ser ut idag med alla mobila enheter som ansluter till tjänster på nätet, så har vi fortfarande en massa datorer (desktops och laptops) som kör traditionella operativsystem som olika versioner av Windows, Mac OS, Linux och t.o.m. en del UNIX. Windows låg länge på en andel av dessa OS på över 90%. Mac OS på ca 5 och Linux faktiskt under 1% senast jag kollade för kanske 4-5 år sedan. Sedan körde Microsoft av banan helt med version 8.0 och 8.1.
Om du tror att dessa siffror är helt ointressanta så kan man ju bara erinra om att inga av de vanligaste standardprogrammen såsom MS Office eller för den delen Adobes produkter finns för vare sig Linux eller Unix och de portades aldrig till IBM:s OS/2 eller Warp heller. Microsoft gjorde ett halvhjärtat försök alldeles efter att IBM och Microsoft gick åt var sitt håll efter det försök de gjorde till samarbete på 90-talets början. Den sista versionen av kontorsprogram som portades till OS/2 var väl exv. Excel 2.21 som redan då var en gammal version. Många versioner då kom först i engelsk version och sedan svensk någon månad senare. Mac-versioner gjordes med vänster hand och låg ofta i en äldre version rätt konsekvent under denna period. Möjligen ändrades detta när de amerikanska konkurrensmyndigheterna började jaga Microsoft och hota med en delning av företaget. Jag är glad att det går så pass bra för Apple och Mac och det borde Mac-ägarna vara också för det har verkligen inte alltid varit någon självklarhet att porta ens Office till detta tidvis rätt nischade system.
Så den som inte tror att det spelar någon roll för mjukvarutillverkarna hur stor marknadsandel ett visst OS har för deras intresse att utveckla produkter för det tror nog fel. Det finns en massa mjukvara än idag som bara görs för Windows-klienter ute i näringslivet. OS/2 blev aldrig något och det kommer inte Linux heller bli på desktops så länge man inte portar standardprogrammen även till detta OS. Man Microsoft har sedan länge förberett sig för i fall Linux eller något annat skulle lyfta med "Common Language Runtime"-arkiteturen. Då behöver man bara se till att göra en sådan till Linux så kommer alla Windows-program att kunna köras på det OS:et också. Men till det har man inga som helst incitament idag.
Däremot är det intressant med alla dessa som idag nöjer sig med telefon och/eller en "Padda" för de gör ju att marknaden för både Windows och ett traditionellt Mac OS till persondatorer borde kunna minska en aning.
"Scenariot med 32-bits Windows XP-klienter och Novell eller Windows file-servers som körs på fysiska rackmonterade servrar där jag får uppfattningn att du lever kvar mentalt efter alla år i Stockholms stad är passé.", skriver du.
Nä min period i Stockholms Stad inskränker sig till de sex-sju senaste åren så det har inget med det att göra och även Stockholm lämnade Netware och Win XP 2009. Det var Windows 7 man körde i 32-bit mode i en ren Windows Server 2008 och SQL Server 2008 värld då. Den andra stora organisationen som fortfarande körde Netware var Polisen - också en jätteorganisation som man inte bara svänger runt på en femöring.
Det är verkligen inget fel på Stockholms sätt att bedriva IT-utveckling generellt sett vare sig då eller nu och de har investerat enormt under de senaste 10 åren och har fått mycket erkännande för sin IT-framfart även internationellt. 2009-2010 outsourcades all IT-drift av servrar och klienter till Volvo IT. Det är ett enormt åtagande Volvo gjorde och mycket blev inte bra i den transitionen men annat blev faktiskt det. Det blev mycket bättre ordning men också en hel del mer stelbent men så blir det faktiskt i de flesta outsourceningar i jämförelse med att driva eget. Men jag tycker trots allt att Volvo förtjänar en del respekt för det var inte någon rusning för att ta det jobbet. Kanske 40 000 datorer - smaka lite på det. Dessutom lutade sig vitala samhällstjänster på dessa datorer som nog i vissa fall är lika viktiga som dina banksystem.
Det var jag själv som initierade och byggde det första Windows-nätet hos min gamla arbetsgivares svenska företag ca 1994- ett nät som några år senare blev nordiskt. I det gick först det produktadministrativa nordiska system jag designat och utvecklat som födde både företagets affärssystem (gick i IBM AS/400). Ett antal Windows- och SQL-servar (fem stycken) satt i ett distribuerat SQL Server -system som sedan även kom att föda våra nordiska webbar med data. Sen blev det replikering från IBM-Iseries minidatorer till ett datalager i Windows-klusters som jag också satte upp. Beslutstödsprogramvara gick i en serverfarm som synkades och drevs under Windows Application Center med beslutsstöd- och analysverktyg (PowerPlay). Det var enormt lärorikt att jobba där för genom de avtal vi hade som distributör/grossist med exv. Microsoft så fick vi tillgång till alla deras server och utvecklingsprodukter gratis. Så det var mitt jobb att vara Microsoft-nörd då jag då var teknisk produktchef just för Microsoft-programvara.
Visst, vi kan pratat moln men vad är egentligen skillnaden Mats? Det handlar ju bara om att man säljer en tjänst mot ett företag som innebär att någon annan tar hand om serverdrift (patchning och backuper m.m.) men hos den som hostar står "samma gamla" rackdatorer från HP och IBM och snurrar som IT-avdelningen tidigare "nuttade" med - låt vara med en del programvara specifik programvara vi inte hade då. Men SAN hade vi då också. Men ibland fixar inte "IT på kran" de problem en organisation har. Problemet är dock alltid till syvende och sist att de som åtar sig att driva tjänsterna sällan eller aldrig fixar att hantera verksamhetsdatat. Det måste många organisationer själv ta ansvar för om det inte helt ska gå på röven och jag har sett ett antal organisationsledare både i det privata näringslivet och det offentliga än mer som haft svårt att fatta detta.
Senast ändrad:
Sten-Åke Sändh
Aktiv medlem
För professionella och entusister så gäller det naturligtvis inte. Men vi verkar tyvärr bli en allt mindre grupp och som Apple allt mindre fokuserar på. Verkar som café- och modeaccessormänniskorna är en större och viktigare kundgrupp för Apple.
Fokus numera verkar vara på de som bara bryr sig om de yttre estetiska egenskaperna. Så tunn och snygg som möjligt. Funktionalitet och praktiskt användade verkar hamna allt mer längre ner som prioritet.
Tycker själv det är väldigt tråkigt. Var helt inställd att nu i höstas byta ut min gamla jobbdator, en MBP med en 3-4 år på nacken, emot en ny. När den nya ersättaren kom så blev jag dock väldigt besviken.
En självklar uppgradering blev istället ett stort vakum. Funderar på att antingen köpa den förra, 2015-års MBP, eller att avvakta tills nu efter CES och se vad som kommer på Windowssidan. Är fortfarande ganska villrådig här (något som är ganska ovanligt för att vara mig).
Fast att exv. Apple-datorer kan vara en eftersträvansvärd modeaccessoar är ju lite konstigt. Även Apple-datorer är väl massproducerade idag och hur "sticka ut" är det? Jag hörde någon som forskat på "hipster-fenomenet" (vad nu det är egentligen) och som hävdade att rörelser som dessa där alla vill vara lite speciella i åsikter, livsstil och klädmode tenderar att skapa en enhetssubkultur där alla blir helt märkligt lika.
Min farsa stack ut på allvar, som gjorde en TV själv - och ingen jävel hade en lika ful TV som vi eftersom TV-möbeln var handsnickrad den med och klädd i grön galon och han byggde en sittvagn till min syster som gick att fälla ihop och ta med på spårvagnarna. Klart före sin tid där.
. ... eller handlar detta bara om något så trivialt som att man bakar sitt eget surdegsbröd och låter skägget växa och sitter på fiken fiken kring Nytorget och i övriga delar av SOFO och knappar på Mac:ar i den mån man inte skriver med gåspenna (för det skulle ju verkligen vara att sticka ut lite idag).
avlustat_medlemskap180119
Avslutat medlemskap
Visst, vi kan pratat moln men vad är egentligen skillnaden Mats? Det handlar ju bara om att man säljer en tjänst mot ett företag som innebär att någon annan tar hand om serverdrift (patchning och backuper m.m.) men hos den som hostar står "samma gamla" rackdatorer från HP och IBM och snurrar som IT-avdelningen tidigare "nuttade" med - låt vara med en del programvara specifik programvara vi inte hade då. Men SAN hade vi då också
Orkar inte citera och svara explicit just nu, utan bemöter själva andemenngen lite istället
Det var inte explicit XP och NetWare jag syftade på, utan konceptet med feta klienter och dedicerade servrar installerade på datorer. T.ex Windows Server 2008 installerat på rackservrar från HP...
Moln är INTE samma som outsourcad IT och att någon annan sköter om datorhallen och där hostar en liknande infrastruktur.
Konceptet med dyra märkesservrar med RAID-controllers och SAN-storage, fibre-channel, avancerade servrar med dubbla kraftaggregat, dyra ECC-minnen, ILO-processorer och klustrade servrar mm. är passé.
Järnet spelar mindre roll i framtiden . Framöver blir det mer ful-disk, enklare grejer och billigare no-name. Reundans byggs inte med RAID-teknik och avancerad hårdvara, utan allt är software defined. Denna fabric kan skalas ut beroende på behov av storage, computing osv. Redundans och tillgänglighet sköts i mjukvara så att data synkroniseras på flera platser med betydligt smartare algoritmer än i RAID och kluster, samt kopplas ihop nätverksmässigt utan att ha en massa routers och brandväggar, utan istället med SDN, software defned networking.
Den sammanlagda multi-tennant infrastrrukturen har sedan definierade gränssnitt för att exponera tjänster på olika nivåer i form av t.ex. SaaS, Software as a service, eller PaaS, Platform as a Service.
DET är moln och det har ingenting att göra med vem som tillhandahåller det. Man kan köra molnet helt inom den egna organisationen i egna datorhallar, eller köra sin tjänst hos någon extern leverantör. Det är inte att man lejer ut det som gör skillnaden, utan vilka gränssnitt som finns för att konsumera tjänsterna.
"Skulle bara vara för Microsoft att släppa ett Common Language Runtime för Linux"
.NET är död. länge leve .NET!
Gamla .Net har nått vägs ände och byggs nu om på nytt i något som heter .Net Core. Det är Open Source och finns för alla plattformar. Än så länge är det bara ett subset av stora .Net, men utvecklingen går mycket fort och det mesta av all ny programvara skrivs för .Net Core. Räkna kallt med att kommande Office görs för det.
Så att Microsoft inte skulle släppa .Net för Linux är fel. De har redan gjort det och dessutom släppt hela källkoden till det som Open Source.
Microsoft är idag ett helt annat företag än det var under Ballmers ledning. Omvärlden har inte riktigt fattat vilken dramatisk skillnad som skett. Det kommer att finnas kvar Windows för både klient och server, men inte i olika versioner som tidigare, utan en ever-green. Servrar på fysiskt järn kommer att vara begränsade till hypervisors och storage.
Det kommer att finnas klienter i form av datorer med Windows och Macar ett bra tag till, men blir nog förändrat framöver med specialiserade device för olika illämpningar. Med universal-apps kan man köra samma binärer på olika device och de ändrar utseende och funktion baserat på devicens egenskaper. Du kan t.ex köra Excel på din telefon, men när du dockr telefonen ihop med tangentbord och stor skärm så byter programmet skepnad.
Vilket OS som kärs kommer inte att vara avgörande och det kommer att köra i sina virtuella bubblor, som t.ex. med Docker och där kan den underliggande plattformen vara Linux eller Windows.
Just nu i privatkonsumentledet ser det fortfarande ut lite som både du och Martain är inne på. Det stämmer nog med hans idé om "café-folket som kör Mac", men det är långt ifrån den enda målgruppen. Apple är framgångsrikt och kommer att få betydligt mera spridning, men det blir mindre och mindre viktigt för programmen. De kommer att kunna köras på alla plattformar.
Det är såklart inte löjligt med vad som händer i IT-världen.
Det jag menade var att det inte är särskilt strikt relaterat till ett diskussionsforum om kameror och tillbehör tillverkade av Sony
(Om nån undrar över dessa nattsudds-inlägg så har jag varit sjuk och inte kunnat sova för att jag hostar, så jag sitter uppe i soffan istället när jag nu är pigg efter att ha sovit mest hela dagen och proppat i mig anseliga mängder Alvedon.)
/Mats
martinot
Aktiv medlem
Fast att exv. Apple-datorer kan vara en eftersträvansvärd modeaccessoar är ju lite konstigt. Även Apple-datorer är väl massproducerade idag och hur "sticka ut" är det?
Luis Vuitton och det mesta modet är också massproducerat (och likriktat).
De här köparna vill absolut inte sticka ut. De vill, tvärt om, vara en del av "gemenskapen" inom den grupp som de vill bli associerade med. Konformitet är ledordet.
PMD
Aktiv medlem
Men det är väldigt likt. Skillnaden är att molntjänsteleverantören leverar en tjänst på en högre abstraktionsnivå. Den underliggande infrastrukturen är dock i stort sett densamma (förutom att den är mycket, mycket större och betjänar flera kunder).Moln är INTE samma som outsourcad IT och att någon annan sköter om datorhallen och där hostar en liknande infrastruktur.
Nej, det behövs mycket avancerad, driftsäker och redundant hårdvara hos en cloud computing-leverantör, så det du nämner är fortfarande ytterst relevant. Skillnaden är placeringen av hårdvaran.Konceptet med dyra märkesservrar med RAID-controllers och SAN-storage, fibre-channel, avancerade servrar med dubbla kraftaggregat, dyra ECC-minnen, ILO-processorer och klustrade servrar mm. är passé.
Termen SDN brukar leda till en hel del förvirring, så låt mig bara påpeka att även om routing sker i mjukvara istället för hårdvara så behövs det fortfarande hårdvara med hög kapacitet för att betjäna alla dessa SDN-nät som sätts upp i något datacenter.Järnet spelar mindre roll i framtiden . Framöver blir det mer ful-disk, enklare grejer och billigare no-name. Reundans byggs inte med RAID-teknik och avancerad hårdvara, utan allt är software defined. Denna fabric kan skalas ut beroende på behov av storage, computing osv. Redundans och tillgänglighet sköts i mjukvara så att data synkroniseras på flera platser med betydligt smartare algoritmer än i RAID och kluster, samt kopplas ihop nätverksmässigt utan att ha en massa routers och brandväggar, utan istället med SDN, software defned networking.
Det behövs också nätverkshårdvara med hög kapacitet för att koppla upp slutanvändarna till datacentret som kör SDN.
Med SDN-teknik får vi, jämfört med dagens teknik, i istället ett mycket mer flexibelt sätt att omkonfigurera nät on-the-fly och utan driftavbrott, vilket inte är trivialt. SDN är fortfarande ett forskningsområde.
Bengf
Aktiv medlem
Mycket påverkar hur AF presterar!
Annars det där är lite konstigt för Sonys AF på de spegellösa har ju varit väldigt exakt men det kan ju vara version 1 problem av den komplicerade lösningen med både en traditionell dedikerad AF-sensor OCH AF-punkterna på huvudsensorn. Både kamera och objektiv måste lira ihop och de såg ju att den gamla Minoltan var bättre än det Sony-objektivet så där undrar man ju.
Sedan har du helt rätt angående buffertproblemen som ju förmodligen är lite mer pockande än med ett pixeltal som är mer än dubbelt så stort som för en D5. Så jämförelsen är ju inte direkt 1:1. Sony har haft svårt att uppvisa lika snabba skrivtider och rensningstider när det gäller buffert som exv. Canon. Hur det ser ut nu för A6500 vet jag inte men det är ju den som är det senaste exemplet på vad Sony nu klarar av.
Tony N. gjorde en liknande test med D500 mot D5 och springande person mot kameran, D500 hade 16 % missade bilder mot då D5 som hade alla i fokus. A99 II missade 20% som sagt. Sedan att beakta så är D5 en betydligt dyrare kamera, även räknat mot A99 II och ännu större skillnad mot D500. Sedan återstår dom allra svåraste testen som förmågan att verkligen kunna hålla kvar fokus när störningar hela tiden hamnar framför huvud motivet och rör sig snabbt och okontrollerat, vet att jag ältar just detta men i alla fall. Redan A6000 var ganska duktigt med ensamma springande motiv, vilket är bra på sitt vis, A6300 klarar ännu lite snabbare motiv, för många kan det räcka långt. men vi måste få se prov på dom här verkligt svåra motiven, cyklisten med knappt styrfart som är en populär test, säger inte så mycket, se mig inte som ogin mot just Sony StenÅke, vore bra att få se svårare prov med autofokusen, vet att A6300/A6500 kan vinna på andra punkter då autofokusen är ganska så komplex, som du själv brukar nämna när vi pratar AF.
Senast ändrad:
Sten-Åke Sändh
Aktiv medlem
Tycker att Sony gott kunde göra en E-mountversion av A99II, och istället bundla med en A-E-adapter i paketet.
Skulle dessutom lösa problemet för de som vill ha bättre balans och grepp som matching till Sonys större och tyngre FE-optik.
Två flugor i en smäll IMO.
Det ligger redan i röret om man får tro SAR. Att de tar fram objektiven först är väl bara ett sätt att säkerställa att de finns på plats när man väl rullar ut större och tyngre kameror också.
Det skulle definitivt kunnat vara en snygg gest att skicka med en ny adapter men då måste det nog bli en helt ny sådan eftersom ju A99 II använder både en dedikerad AF-sensor och de fokuspunkter som finns på sensorerna. Ingen annan kamera gör ju det idag. Det skulle ju kunna vara en lösning för de som behöver bättre AF med längre objektiv också. En del av dessa objektiv finns ju bara för A-mount idag.
PMD
Aktiv medlem
Hur skulle det gå till? E-fattningen har för kort registeravstånd för att få plats med en spegel (hur halvtransparent den än är).Tycker att Sony gott kunde göra en E-mountversion av A99II, och istället bundla med en A-E-adapter i paketet.
martinot
Aktiv medlem
Tänkte inte bokstavligen exakt en "A99II", utan mer en småbilds E-mountkamera med samma typ, grepp och storlek av kamerahus som A99II (lite slarvigt skrivit av mig där kanske).
Sedan bundlar de med någon av deras vanliga adapter i paketet (snygg övergång när de passar på att lägga ner A-mounthusen).
Sedan bundlar de med någon av deras vanliga adapter i paketet (snygg övergång när de passar på att lägga ner A-mounthusen).
Sten-Åke Sändh
Aktiv medlem
Det var inte explicit XP och NetWare jag syftade på, utan konceptet med feta klienter och dedicerade servrar installerade på datorer. T.ex Windows Server 2008 installerat på rackservrar från HP...
Under hela min tid i den privata IT-världen så har jag lärt mig en sak och det är att både privata stora företag ofta lever i flera IT-paradigm parallellt. Det tror jag möjligen att du kan se på din bank också. Vi körde exv. ett affärssystem (order, lager fakturering) från IBS och det var byggt i IBM:s gamla RPG. När de ville modernisera det klistrade de ett grafiskt gränssnitt på. Det var i IBM:s minidatorvärld AS/400 (senare I-series) och det var terminaler och inga feta klienter där inte. Sedan kom klient server i PC-miljö och när Internet kom klarade inte den arkitekturen det utan då byggde man webbgrännsnitt som förhöll sig frånkopplat till backend med stateless teknik. Detta skifte gick inte alltid så snabbt som man kanske trott eftersom de tjocka klienterna var mycket effektivare och snabbare (mer produktiva) än de webbaserade. Så är det i faktiskt än idag.
Stockholm sjösatte 2009 vad man kallade GSIT, står för "Gemensam IT". Det innefattade både administration av stadens alla klientmaskiner centralt (utom de som administrerades med s.k. lokal administration som administrerades av användarna själva). Folk har fortfarande riktiga datorer och du skulle bli förvånad om du såg den programvarulista man kan beställa installation till den egna datorn.
Men de sjösatte samtidigt ungefär samtidigt med outsorcingen till Volvo en s.k. E-tjänsteplattform. Alla stadens förvaltningar fick söka medel för utveckling av tjänster man ville ha och det gjordes i stor omfattning. På den plattformen installerades och administrerades sedan stadens alla webbtjänster. Detta har varit väldigt framgångsrikt och Stockholm har för något år sedan utnämts till världens mest innovativa stad.
Så det lever både kvar en massa "legacy"-system som exv. gamla museisystem som man inte ruckar på så lätt och dessa ligger inte sällan med sin data i SQL-servers. Istället för att riva allt detta på en gång så lade vi som många andra ett modernt DAM-system ovanpå och integrerade alls och gjorde både alla dokument och en massa historiska bilder tillgängliga via "digitalastadsmuseet.stockholm.se - sökbara i ett enda sammanhang både internt och externt. Fördelen med detta är att användarna via denna webbplats kan söka och då svarar systemets webbservice "Archive Manager" via webbgränsnittet med ett urval dokument och bilder. Lika viktigt för framtiden är att vi nu rör oss mot den s.k. "Semantiska webben" i museivärlden och där är Open Data ett centralt begrepp. "Archive Manager" kan även svara i form av en XML-set som utvecklare kan använda för att bygga appar som använder museets data. Museet möter idag fyra stjärnor av fem på Tim Berners Lee's skala för Open Data. Stockholm har satsat en hel del på Open Data. Den högst nivån är Linked Open Data där ett sökresultat genom webblogikens utformning kan användas till att skapa referenser till annan intressant relaterad data automatiskt.
http://5stardata.info/en/ [/QUOTE]
Moln är INTE samma som outsourcad IT och att någon annan sköter om datorhallen och där hostar en liknande infrastruktur.
Konceptet med dyra märkesservrar med RAID-controllers och SAN-storage, fibre-channel, avancerade servrar med dubbla kraftaggregat, dyra ECC-minnen, ILO-processorer och klustrade servrar mm. är passé.
Järnet spelar mindre roll i framtiden . Framöver blir det mer ful-disk, enklare grejer och billigare no-name. Reundans byggs inte med RAID-teknik och avancerad hårdvara, utan allt är software defined. Denna fabric kan skalas ut beroende på behov av storage, computing osv. Redundans och tillgänglighet sköts i mjukvara så att data synkroniseras på flera platser med betydligt smartare algoritmer än i RAID och kluster, samt kopplas ihop nätverksmässigt utan att ha en massa routers och brandväggar, utan istället med SDN, software defned networking.
Den sammanlagda multi-tennant infrastrrukturen har sedan definierade gränssnitt för att exponera tjänster på olika nivåer i form av t.ex. SaaS, Software as a service, eller PaaS, Platform as a Service.
Virtuell filhantering hur länge som helst och i Windows heter ju det Distributed File System. Med det frikopplar man sig från den fysiska lagringen och då spelar det mindre roll var saker ligger (om man inte bryr sig om optimal prestanda för det är alltid en kostnad med allt). Även ett DAM (Digital Asset Management) ger ju den typen av effekt eftersom de index ett sådant skapar kan bestå även av flera index i grupp (Union). Dokument kan vara indexerade för sig, bilder för sig m.m. men vid en sökning så får man träff på allt och dessa är förenade i samma Union. Jag nämner bara detta för att visa att det finns många tekniker i dag som ger virtuella effekter. Ett Union-index kan exv. bestå både av bilder man själv administrerar men även av exv. inlänkade index från en bildbyrå och då kan man få träffar med både egna och andras bilder och dokument som man samarbetar med.
Jag säger detta därför att de som bygger saker idag har många möjligheter att erbjuda data och tekniken är i sig frätt ointressant. Det intressanta är att den är virtuell och kan nås var ifrån som helst om det är ens syfte.
DET är moln och det har ingenting att göra med vem som tillhandahåller det. Man kan köra molnet helt inom den egna organisationen i egna datorhallar, eller köra sin tjänst hos någon extern leverantör. Det är inte att man lejer ut det som gör skillnaden, utan vilka gränssnitt som finns för att konsumera tjänsterna.
Är det en molntjänst så är det nog i allmänhet så idag att man hyr den. Det vanligaste jag kan tänka mig är lagring av data. Stockholms avtal med Volvo gjorde att man fick betala 10-15 ggr mer för lagring än om man exv. lagt data hos Amazon. En GB/månad kostade 8 kronor alltså 96 SEK per år. Vi föreslog en outsourning men vi fick inte det för det var Volvo som vunnit det monopolet vid upphandlingen (ja alla tvingas handla av Volvo eller ATEA (mjukvara)) till betydligt dyrare pengar än nödvändigt. Så blir det när man ger bort monopol.
"Skulle bara vara för Microsoft att släppa ett Common Language Runtime för Linux"
.NET är död. länge leve .NET!
Gamla .Net har nått vägs ände och byggs nu om på nytt i något som heter .Net Core. Det är Open Source och finns för alla plattformar. Än så länge är det bara ett subset av stora .Net, men utvecklingen går mycket fort och det mesta av all ny programvara skrivs för .Net Core. Räkna kallt med att kommande Office görs för det.
Så att Microsoft inte skulle släppa .Net för Linux är fel. De har redan gjort det och dessutom släppt hela källkoden till det som Open Source. .
Du skriver själv att det är en delmängd de skrivit om. Så tills något annat händer så kommer inte det gå några Windows-program i några Linux-maskiner inte.
Microsoft är idag ett helt annat företag än det var under Ballmers ledning. Omvärlden har inte riktigt fattat vilken dramatisk skillnad som skett. Det kommer att finnas kvar Windows för både klient och server, men inte i olika versioner som tidigare, utan en ever-green. Servrar på fysiskt järn kommer att vara begränsade till hypervisors och storage.
Det kommer att finnas klienter i form av datorer med Windows och Macar ett bra tag till, men blir nog förändrat framöver med specialiserade device för olika illämpningar. Med universal-apps kan man köra samma binärer på olika device och de ändrar utseende och funktion baserat på devicens egenskaper. Du kan t.ex köra Excel på din telefon, men när du dockr telefonen ihop med tangentbord och stor skärm så byter programmet skepnad.
Vilket OS som kärs kommer inte att vara avgörande och det kommer att köra i sina virtuella bubblor, som t.ex. med Docker och där kan den underliggande plattformen vara Linux eller Windows..
Med all respekt så är ju det där inget nytt i sak alls och det bygger på att man tolkar den koden precis som man gjort länge med .NET också, att man isolerar en applikation från det som finns under så att den bara behöver förhålla sig till ett och samma gränsnitt oavsett vilket operativsystem den går på. Skillnaden är bara att vi kanske då kan slippa ha en Java-värld och en .NET-värld och kanske kan ena oss om något gemensamt. Kan man inte det så är man fortfarande kvar på den rutan.
Just nu i privatkonsumentledet ser det fortfarande ut lite som både du och Martain är inne på. Det stämmer nog med hans idé om "café-folket som kör Mac", men det är långt ifrån den enda målgruppen. Apple är framgångsrikt och kommer att få betydligt mera spridning, men det blir mindre och mindre viktigt för programmen. De kommer att kunna köras på alla plattformar.
Håller med.
Det skulle ju vara ett stort plus för Apple om de kunde köra alla applikationer som de idag inte kan köra men som faktiskt finne för Windows. Linux på desktop kanske skulle gå mot en ny vår åtminstone hos dem som faktiskt fortfarande vill ha en riktig dator och inte bara en Google-klient.
Om man skulle dra en parallell till kameravärlden Så länge det är OK för kamera hårdvarutillverkarna att öppna upp sig (vilket det inte verkar ännu i alla fall) så har åtminstone mjukvarutillverkarna allt att vinna.
Vi får väl se om kameratillverkarna kan ena sig på sikt om ett gemensamt RAW-format så att de och mjukvarutillverkarna istället kan koncentrear sig på att göra sina produkter ännu bättre. Varför behöver olika företag som använder samma Sony-sensorer spara i olika RAW-format??
martinot
Aktiv medlem
En förstorad A7, alltså?
Det är väl rätt likt den A9 som det har spekulerats om.
Nja, nästan/vet inte;
Inte bara att man skalar upp A7 i storlek, utan faktiskt ändrar form till att bli en DSLR-typ av hus med dess grepp och form som A99 (eller motsvarande modeller hos Canon/Nikon).
PMD
Aktiv medlem
Därför att de kanske inte har samma färgfilter framför sensorn, t.ex.Varför behöver olika företag som använder samma Sony-sensorer spara i olika RAW-format??
Similar threads
- Svar
- 2
- Visningar
- 1 K
- Svar
- 6
- Visningar
- 2 K
- Svar
- 8
- Visningar
- 3 K
- Svar
- 185
- Visningar
- 32 K