NSA betalade RSA för att göra retro-parad av Netscape Navigators gamla SSL-defekt
12/22/2013Tidigare idag publicerad på Hans Husman om Media: NSA betalade RSA för att göra retro-parad av Netscape Navigators gamla SSL-defekt.
Här liksom en del i övrigt från Snowden hör det till förvisso okänt men ändå inte direkt förvånande givet att Security Dynamics senare RSA Security inte har haft kommersiellt värde (snarare tvärtom) av fallgroppar rörande konfiguration. Även om vi inte oftast praktiskt möjligt åtminstone på rimlig tid kan "se in i" närmare detaljer kan man inte förutsätta att default-konfiguration eller kodexempel i sig är det bästa säkerhetsmässigt (ofta nog tvärtom och antagligen med eller utan NSA eller liknande motiverande entiteter med ekonomiska värden som nyheten pekar kan ha skett för BSAFE).
"Documents leaked by former NSA contractor Edward Snowden show that the NSA created and promulgated a flawed formula for generating random numbers to create a "back door" in encryption products, the New York Times reported in September. Reuters later reported that RSA became the most important distributor of that formula by rolling it into a software tool called Bsafe that is used to enhance security in personal computers and many other products.
Undisclosed until now was that RSA received $10 million in a deal that set the NSA formula as the preferred, or default, method for number generation in the BSafe software, according to two sources familiar with the contract."
Från: Exclusive: Secret contract tied NSA and security industry pioneer (2013-12-20) | NSA
Och BSAFE har sitt ursprung i SSLeay som efter köpt av RSA utvecklades vidare parallellt och rörande åtminstone licens, ägande o.s.v. oberoende i OpenSSL möjligt genom att SSLeay var open source (jag minns inte vilken av dom vanligaste licenserna). Problematiken för BSAFE kan mycket möjligt vara större än man som OpenSSL användare spontant (jag i alla fall) uppleveer det givet antar jag ett antal färdig-kompilerande komponenter för diverse plattformar och applikationer som kommer med det (dll:er och liknande) resp. kanske färdiga men förenklade api:er runt om sådana för ex. skriptade språk likt Perl (men jag har egentligen aldrig använt BSAFE utan alltid OpenSSL när aktuellt även om RSA Security för ganska många år sedan gav mig en full uppsättning av allt relaterat kryptering för utvärdering något projekt med dokumentationen).
Rent allmänt just för kryptologiskt säkra pseudoslumptsaltsgeneratorer och etablering av entropi utan särskild hårdvara ska man ha respekt för att problematik i kvalitet kan vara vanligt i ett större antal produkter och lösningar oavsett BSAFE eller annat (även om vad som krävs för att utnyttja problem kan ligga ovaför ev. fallet för BSAFE särskilt när en välkänd stnadardiserad defekter är känd snarare än ex. varierande med klientens miljö i mjukvara och hårdvara som kan vara fallet när entropi-pool etableras från händelser i operaivsystem, nätverk, saker användaren gör m.m.). En försvarlig mängd problem har också redan i algoritmer uppmärksammats (vi minns som en av de första tydligt relevanta internet och e-commerce problematiken i Netscape Navigator Wagner (antagligen mer känd för the timing attack - se Tidsanalys i sociala media jag skrev 2009 där referens till aktuell artikel finns såväl som ett kanske för fler begripligt exempel - vilken jag som koncept absolut inte upplever behöver vara orelaterad elliptiska kurvor m.fl. frågor i och runt-omkring NSA och kryptering och ej heller generering av pseudo-slumptal) i publicerade 1996 där generering skedde utan att någon meningsfull pool av "slumpmässighet" / "entropi" skapats).
"Netscape Communications has been at the forefront of the effort to integrate cryptographic techniques into Web servers and browsers. Netscape's Web browser supports the Secure Sockets Layer (SSL), a cryptographic protocol developed by Netscape to provide secure Internet transactions. Given the popularity of Netscape's browser and the widespread use of its cryptographic protocol on the Internet, we decided to study Netscape's SSL implementation in detail.
Our study revealed serious flaws in Netscape's implementation of SSL that make it relatively easy for an eavesdropper to decode the encrypted communications. Although Netscape has fixed these problems in a new version of their browser (as of this writing, Netscape 2.0 beta1 and Netscape Navigator 1.22 Security Update are available), these weaknesses provide several lessons for people interested in producing or purchasing secure software."
[...]
"We used the information we uncovered about Netscape's internals to formulate a more intelligent attack against Netscape's encryption scheme. According to Figures 2 and 3, each possibility for the time of day, process ID, and parent-process ID produces a unique seed, which in turn produces a unique encryption key."
Från: Randomness and the Netscape Browser January
1996
Ian Goldberg and David Wagner
- Netscape Navigator: Webbläsaren från åren i brytpunkt mellan de flestas föreställning av något liknande internet från War games och dagens värld där allt fler åtminstone i I-världen nyttjar interner, data och andra IT-relaterade droger. Dom här åren fanns fortfarande trosföreställningen att språket för webbsida skulle uttrycka information ej involverad i själva utseende-formatering: det försvann så fort de första kommersiella sajterna kom vilka naturligt inte såg värde i att presentationen av i bästa fall de flesta upplevdes sämre än de kunde göra den missbrukande WWW-standarderna.
I princip (och om jag minnsr rätt mer eller mindre exakt detta) Netscape initierade sin generator med var datum, tid och användarens PID (tt nummer för resp. användare på Unix OS lätt att gissa eller gå igenom alla praktiskt troliga alternativ för eller helt publikt via finger - vanligare då än nu m.m.).
Tidigare från Hans Husman om Information warfare relaterat OpenSSL, SSLeay och BSAFE:
- MD2 ger säkerhetshål i SSL (8/09/2009)
- Appropå C och säkerhet (1/12/2009<)
- Google: OpenSSL + NSS och SSL i Chrome + Native Client + Ratproxy (1/13/2009)
- En kul detalj runt SSLeay som ju blev OpenSSL resp. RSA (2/16/2010)
- Open source and security (long term commitment, larger entities) (5/27/2011)
- OpenSSL godkänd av DHS (?) (7/26/2012)
Drar vi oss nu till minnes följande incident:
- Förändrad attityd rörande Kina i USA
1/24/2010 - Sergey Brin om angreppen mot Google från "Kina"
2/15/2010
Är det lite som med President Bashir's helikopter-olycka 29 july 2005: Det är oerhört svårt från det perspektiv man (jag i alla fall) befinner sig att kunna bedöma kvalitet rörande utredning eller förståelse av vad inträffat. Också om jag åtminstone inte känner till något tyngre problem härrörande från incidenten med Google's datacenter i Kina.
Rörande BSAFE problemen inses att vi givetvis får potentiellt liknande problem oavsettt exponerande personer i diktaturer eller klienter i ekonomiska sammanhang (ee-handel eller e-banking). Egentligen betvivlar jag även om jag nog skulle gissa på att mer värde finns i att stödja reduktion av dessa problem snarare än ev. uppmuntra det att det varit särskilt avgörande: liknande problem är vanligt med eller utan detta eller denna mjukvara.
Om något tror jag här som en hel del annat NSA-Snowden relaterat att händelserna och vad som gjorts känt kan göra mycket större nytta än vad ex. NSA konfigurtions guider för allt möjligt: Archived Security Configuration Guides | NSA.gov (till vilka alternativ från andra aktörer givetvis för troligen alla aktuella guider finns), och relaterat kan vi konstatera att om Yahoo och Google läst Securing Fibre Channel Storage Area Networks hade eventuellt problematiken med NSA's avlyssning av deras back-end förbindelser över fiber-optik inte varit ett problem). Problematiken blir tydliga såväö som en moståndare (emedan många andra angripare ganska lätt tenderar att uppfattas som mindre tydligt bakgrundsbrus där istället om alls enskild större incidenter märks när inträffade).
"One important type of SAN is the Fibre Channel (FC) SAN, used for the rapid transfer of data between FC storage devices and between servers and FC storage devices, via FC switches. One or more FC switches in a SAN compose a fabric. Servers have one or more Host Bus Adapters (HBA) that provide a hardware interface to the FC SAN."
[...]
"Confidentiality
There are two major components of data confidentiality on a SAN. Information should be cryptographically protected in SANs when it is in transit between two FC devices as well as when it is at rest on a FC storage device. Both user data stored on storage devices and SAN fabric data used by FC switches should be protected from unauthorized devices."
Från: Securing Fibre Channel Storage Area Networks | NSA.gov
D.v.s. med eller utan NSA avlyssnande saker lär en försvarlig mängd problem kvarstå så länge säkerhetskoniguration och en defensiv säkerhetsarkitektur realiseras. Och försvinner NSA som avlyssnande aktör behöver man ändå skydda sig mot diverse andra aktörer av alla möjliga slag som lär utnyttja problem när möjligt och värde finns att skapa genom det.
/p>
Ev. mätbarbara negativa effekter samhälle rån Snowden's läclage kan med andra ord eventuellt balanserande komma med en mätbar effekt på oftare korrekt realiserad säkerhet såväl som när ej så förståelse av risker realiserade påverkande beteenden. Jag tror både ev. negativt och positivt värde inte behöver vara lätt att kvantifiera även om just detta ev. positiva värde antagligen mycket lättare kan gå att försöka skatta genom enklare frågor relaterat medvetende hos surfare mer allmänt om än svårare relaterat förändring av sälerhetsarkitektur befintligt eller för nya produkter förutom ett fåtal mer synliga exempel (ex. Yahoo's och Google's införda eller kommande kryptering av data de skickar mellan servrar).
Bayesian interference för inverse i funktions-mappning
12/13/2013Spontant efter en kortare tid känns artikeln nedan som att den innehåller för mycket av matematik jag inte vidrört på länge för att vara tydlig eller bättre uttryckt vad jag inte försöker läsa mer än övergripande och i diskussion på slutet:
A path-integral approach to Bayesian inference for inverse problems
arXiv:1312.2974v1
Joshua C Chang, Van Savage och Tom Chou
Och givet det lite problematiskt när man sparar undan den för ev. framtida behov hör till vad man kan ha missuppfattat (d.v.s. skjutande fram en tidskostnad). Likväl är själva domänen - att givet resultatet b försöka uttrycka ett a via statistiska metoder och där man inkluderar ett lätt icke-linjärt problem man demonstrerar algoritm-familjen på som dessutom känns som vad man inte sett tidigare - av och till ganska intressant i kreativ-intelligens såväl som mer välkända applikationer hemma-hörande i information science såväl ämnet för bloggen här.
Tänker vi oss delvis förstörande funktions-mappning där många a kan ge b ä ju statistiska metoder vad som är intressant. Även om det kanske inte är intressant för det väldigt renodlade där (och igen jag plågade mig inte i att läsa matematiken för att egentligen veta det men jag tror inte det) som hashfunktioner är ju de oftare applikationer snarare mer populations-relaterade förekomster ex. relateade metod eller ett emotionellt bias som föranleder något. När man dessutom ser en del grafer normalfördelade såväl som Bayesian interference som basalt paradigm i artikeln (det är mer runt "path-integreal" min matematik PTSD lever upp) kan man ju i alla fall spara det.
Meta-data i PDF-dokument I - Klient-plattform: "There is no teacher but the enemy"
11/18/2013En av cirka 10 filer nedladdade från några källor och just denna från Xinhua: IFCD2013_Ch.pdf. Mindre urval extraherad meta-information:
Vi ser att användaren tycks vara Microsoft Office 2007 Microsoft Windows. D.v.s. sannolikt något i office-familjen sparande som pdf (antagligen Word applikationen använd av människa). Vi besöker Google och söker (jag är ganska trygg i att Bing ger lika bra sökresultat här men upplever att Google känns som ett artigare val här: det kan vara jobbigt för Microsofts sök-AI att behöva leta rätt på sådant här börjande lovande kanske indikerande att jag vill handla men slutande på sidor som nedan) och vi hittar publierad 5 november 2013:
Microsoft Security Advisory (2896666)
Vulnerability in Microsoft Graphics Component Could Allow Remote Code Execution
Published: Tuesday, November 05, 2013 | Updated: Tuesday, November 12, 2013
Version: 1.1
General Information
Executive Summary
Microsoft is investigating private reports of a vulnerability in the Microsoft Graphics component that affects Microsoft Windows, Microsoft Office, and Microsoft Lync. Microsoft is aware of targeted attacks that attempt to exploit this vulnerability through Microsoft Office 2007 software installed on Windows XP Service Pack 3.
Istället kan man skriva PDF 1.0 - OpenVMS 5.2.1 on PDP 10. Ingenting som prövas därifrån behöver visa sig säkert praktiskt på senare plattform men är lite komiskt och kan roa möjligen omvända angriparen: och om inte indikerande viss historis-setting också om jag betvivlar att OpenVMS är vad vanligt att folk kommer ihåg längre. Eller så skriver man samma sak som det står i Xinhua's filer och sätter dessutom dit deras namn.
Men enklast om ej nödvändigt av något system och mer korrekt tror jag blank infomation och gärna verifierade med text-editor att plattform inte skriver dit en massa likväl.
Skönt att man äntligen ska få nytta av att under år skickat etniskt-degraderande komiska bilder av tibetaner och andra minoriteter i Kina till diverse personer i kommunistpartiet. Efter vad jag hört är de mycket populära att skicka vidare. Vad som blir läst hela vägen upp till president och övriga i den absoluta toppen. Nu kan man skörda genom att smyga sig in i datorn för att utnyttja till bitcoin mining eller liknande värdebyggande där det räknas.
Båda från Hans Husman om Media:
Komisk teckning: När yngre flaggor ger sig ut på äventyr är det viktigt att äldre kommer med (2012-02-03)
I förhandlingarna om fria val i Kina och Tibet föreslogs att länderna tillsammans efteråt skulle bomba sönder Nordkorea.
Från: Skämtteckning: Dalai Lama och en kinesisk general (2011-04-28)
Den första skämtteckningen är egentligen "mycket" äldre tids-parallell revolutionen (ej den pågående nu) i Libyen där den nya skämtteckningen för länkat inlägg var.
Även om det behovet kan ha minskat sista åren. Så mycket påverkar och styr som realitet för människor. I mer turbulent historia är det därför bra att ländeer engagerar sig brett också om mer distansierade oavsett vilket land nu aktuellt.
Hollywood vandaliserade en till roman men fick oss att minnas redaktionellt flexibelt användbart citat
Titel inspirerad från Ender's Game nyligen i denna (av mig också) komiska men finkänsliga konstnärliga skapelse i mötet mellan text och bild: Endast fienden motionerar Vitahuset korrekt försvars-optimerat.9>
Filmen är för den delen inte helt dålig men både för att få något värde av de mer reflekterande delar krävande att man läs boken (och helst avstått från att läsa efterföljande böcker). Samtidigt oavsett vilken för kort för att orka uttrycka annan handledning än enskilda kraft-ögonblick oavsett om med rymdskepp, eller hand-combat. En teve-serie hade kunnat fungerat bättre i kanske fyra längre avsnitt.
Fler underliga Microsoft missar
11/13/2013Här är ett par till i gränssnittet helt obegripliga missar.
Operativsystem kan rekommendera uppdatering och omstart och göra det tvingande om man inte skjuter fram det. Ingenting fel finns just med det vilket kan vara bra kring en del säkerhetsproblem i mjukvara eller kanske rent av batterierna om man nu dator står på själv.
När sådan uppdatering skapas ett fönster med information. Emellertid om jag för att utnyttja bildskärm optimalt ställt in toolbar till att gömma sig när jag ej petar nere vid skrämkanten får jag inget meddelande och kan förlora data.
Vidare när nu det hela satt igång och uppdaterar sig kommer den alltid indikerade informationen om att ej stänga av datorn. Men om ej inkopplad till nätuttag och med begränsad batteritid men ej tillräckligt för att sätta igång "sova" automatiskt startar den gärna om sig trots ej säkert ha batteritid att avsluta med.
Lite på tema att trots många många många år har ingen ens i detaljer förbättringar av kommando-prompt skett som att förslagsvis göra att markering, kopiering, paste m.m. kan ske på normalt sätt som i allt annat.
Kanske har Microsoft konstant många år nu hetsat upp sig över mobiler (jfr Windows CE m.m.), sökmotorer och allt möjligt annat som ändå slutat med att de köpt något medan operativsystemet mer är vad man struntat i undertiden.
Därmed inte sagt att jag tycker allt de gjort fungerat dåligt. Windows 2000 server tyckte jag fungerade bra.
Fortsätter man att utveckla Microsoft Scholar adderande vettiga vertikaler och data-dimensioner med kvalitet kan det nog bli en bra sak också.
Dessutom finns det ju liknande områden där konceptet kan återanvändas ex. för regerings- och myndighetsfunktioner med politiker för att enkelt hitta vad de skrivit, givit förslag på m.m. genom åren (och varför inte våga lite extra där för att vinna stort: promenera över till NSA och låna 20 - 30 användarnamn och lösenord och titta efter vad de ev. har om amerikanska och utländska politiker: att visa att man prioriterar EU och särskilt EU-giganten Tyskland tror jag uppskattas och kan göra allt möjligt kring monopol om nu något kvarstår m.m. enklare - Säger Merkel att Microsoft är en sund vän av EU är det så eftersom hon betalar för det hela). Vertikala kopplingar till utveckling över tiden rörande frågor, statistik m.m. ger enklare quality assurance än man annars normalt ids engagera sig sökande uppföljning från en mängd källor.
Jag har en hel del relaterad praktisk erfarenhet av att samla publicerad information från såväl dom amerikanska myndigheterna och funktionerna, EU, OECD, Världsbanken, diverse länder runt om i världen m.m. Och också om en del föredömligt välorganiserade informationssajter finns hör det till undantagen. Skillnader i presentation, funktioner o.s.v. kan dessuto storligen variera mellan delar av större entiteter likt EU såväl som att översikt över allt EU på webben saknas (i antal nästan helt givet ett större antal projektrelaterade sajter utspridda på refererat av större eu, ej refererade på eu-topp-domän resp. på olika topp-domäner för länder).
Något nyligen relaterat att ha samplat svenska regerings-relaterade sajter på engelska för första gången:
Ett urval av andra små egenheter i Microsoft OS:
Microsoft Azure: SSL-problem (igen)
Microsoft tips: Kopiera istället för att skriva av eller skriva ut skärmdump
Säkerhetsproblem i Microsoft Windows troligt svårhanterat via konfiguration
Microsoft ropar på hjälp (igen) med nytt försök att slippa ansvaret för säkerhets-debacklet
Att IDS-detektera Informationsläckage Snowden: Värde, risk eller ingenting mer än hind-sight bias?
11/12/2013Att "installera" något avsett för att lösa ett problem ytterst brett beskrivet är när vi tar distans till de faktiska problemenen i en mängd konkreta situationer tilltalande men från samma distans utan någon mer exakt information ganska svårbedömt vad de det egentligen tillför. Betraktar vi som exempel vad Reuters skriver nedan (som jag av naturligt givet diskussionen här 2010 rimligen bör kommentera om inte annat för att upprepa diskussion värde och risk):
"Reuters reported last month that the NSA failed to install the most up-to-date, anti-leak software at the Hawaii site before Snowden went to work there and downloaded highly classified documents belonging to the agency and its British counterpart, Government Communication Headquarters."
Från: Exclusive: Snowden persuaded other NSA workers to give up passwords (2013-11-08) | Reuters
Vi kan först konstatera de få saker enkelt känt bekräftat över flera organisationer, funktioner och tid: Varningar i sig att potentiella problem realiserats rörande Snowden innan han tog med sig data ut från NSA (eller att någon kamrat gjorde det) och "utvandrade" till den gamla världen återvändande till rysk-ofrihet likt gamla tiders rysk-utvandrare.
Givetvis kan vi ändå tänka sig att en IDS lösning hade givet varningar som följts upp och föranlett - oavsett hur scarce själva funktion Snowden hade som systemadministratör i en datormiljö relativt vilka normalt mer avvikande mönster av trafik och beteende den rollen genererar - att någon agerade i tid så att säga.
Nu vet vi (eller jag i alla fall inte) exakt vilken säkerhetskomponent som avses i arkitktur eller var d.v.s. vilket data den analyserar. Inte heller vet jag varifrån Snowden avseende system och hur det fungerade hämtade data han tog ut. Emellertid tror jag att det ungefär är så här:
- Gemensamt för diverse funktioner finns ett dokumenthanteringssystem. Vi benämner det DS.
- DS har webbgränssnitt.
- Det har en mängd funktioner vi inte exakt känner till men vi inte orimligt kan spekulera ganska väl motsvarar samma system samma myndigheter använder och gör tillgängliga via andra kanaler utan säkerhetskrav (ex. öppet på webben).
- Dessutom spekulerar jag mer exakt för att gissa lite extra (från diverse aktuella myndigheter givit ifrån sig i upphandlingar, dokument m.m. 2009 till tidigt 2011) att systemet delvis använder Drupal och underliggande har kopplingar till diveerse legacy-system, och att dess dokumenthantering möjligen kan ha mer än vanlig likhet med en del lösningar USA's consensus, myndighet NIH och mer spekulativt myndighet DoD.
Rörande ett system ungefär motsvarande detta kan vi lägga säkerhetsfunktioner för autentisering, sessioner m.m. såväl som intrusion detection underliggande eller i applikationslager.
Under applikationslager. D.v.s. primärt vad jag tror är aktuellt tittande med mindre medvetenhet om exakt vad som sker i applikationslagret på själva trafiken exempelvis abstraherat TCP/IP men mycket möjligt inkluderande andra protokoll. Ex. vilka datorer frsöker accessa vilka system var någonstans vid vilka tidpunkter o.s.v.
Eventuellt kanske med kännedom om olika personers arbetsschema ex. om Systemadministratör Snowden ej denna dag har någon arbetsuppgift fodrande att han som system administratör konsulterar power-points rörande trafikanalys för mobilnät varnar vi dennes chef eller om krisartat kanske skickar en drone att spionera på hans hus eller att en lampa börjar blinka i taket ovanför där han sitter eller liknande möjligheter men ej fullt så långt-gående ex. ip-adress / dator associerad till person a som normalt aldrig i sitt arbete ska behöva access till system Z och därför aldrig ska göra access försök till det och om så sker initierar det binärt utredning med uppföljning på plats med person.
Applikationslager: Här möjliggörs nu kontroller rörande vilka dokument, uppgifter, statistik m.m. en person accessar och hur väl det stämmer med en produktiv hårtarbetande medarbetare lojalt ej skickande data vidare till media eller konkurreerande företag eller länder. Utmaningen här är att både dra nytta av konceptet "ett webbgränssnitt till allt möjligt data sammanfört för att göra arbete enkelt för alla möjliga roller och avdelningar" (som jag spekulerar att DS liknar i idé) oh att försöka definiera eller beräkna normalt vs annorlunda eller misstänkt.
Att mappa dokument och annan information till roller, funktioner, projekt m.m. är givetvis mer eller mindre trivialt om det endast handlar om data definierat ex. för ett avgränsat projekt: De n st personer arbetande i projektet och deras chef ska kunna läsa dem och inga andra. Personer som söker efter associerade koncept runt dem är vad man bör bevaka extra.
I övrigt rörande historik under flera inser vi att det blir mer komplicerat. Det är inte att förutsätta utanför enkla säkerhetsklassificering att dokument i sig enkelt låter sig sortera till roller, nuvarande projekt, mer permanenta funktioner en person har o.s.v. Viss grovare filtrering tycks dock möjlig. En systemadministratör ska antagligen inte ha tillgång till något alls i systemet vi beskriver. Samtidigit rörande Snowden verkar det i alla fall inte orimligt att spekulera att han som inhyrd konsultresurs inte uteslutande haft en avgränsad roll hela tiden utan att det kanske också varierat över tiden utan att någon betrodd propagering av sådant sker och om det inte sker att det inte är ovanligt och att det i sig kanske snarare är kravställande på nivå för säkerhet än visa versa.
Problemet praktiskt blir givetvis svårare om man som Snowden fuskat i sin access till DS. Han har inte korrekt "ärligt" försökt (inte bara i alla fall) hacka sig in i systemet körande någon ljudlig skanner som nätverks IDS enkelt reagerar på eller surfat runt under egen identitet. Utan istället har han varit social med sina arbetskamrater för att få dom att dela sin inloggnings-token (vad nu använt: möjligen lösenord eller möjligt själva den fysiska accessen till motsvarande ett nätverksuttag eller datorn):
"Snowden may have persuaded between 20 and 25 fellow workers at the NSA regional operations center in Hawaii to give him their logins and passwords by telling them they were needed for him to do his job as a computer systems administrator, a second source said."
Från: Exclusive: Snowden persuaded other NSA workers to give up passwords (2013-11-08) | Reuters
Om vår IDS agerar i applikaionslager gäller nu inte bara att onormal access döljs kommande via proxy med närmare (eller exakt motsvarande) normal för arbetet access. Dessutom gäller ju att toppar i mängd, spridd ut från "normalitet" för resp. person o.s.v. "späds" ut över ett så försvarligt antal som kanske 20 eller fler personer.
För en tänkt huvudsakligt statistiskt lärande IDS (oavsett hårdare regler mycket lämpligt varande delar av värdet att ligga i applikationslager) finns en mindre ocean av statistiska metoder i ett inte fåtal paradigm (ex. paradigm neuronnät och metoder där typ av neuronnät resp. träningsdata) men för att ta två exempel:
"Principal Component Analysis (PCA) is employed for feature set selection and dimensionality reduction, while Mahalanobis Distance (MD) and is used to classify legitimate and illegitimate activity."
Från: HOST-BASED MULTIVARIATE STATISTICAL COMPUTER OPERATING PROCESS ANOMALY INTRUSION DETECTION SYSTEM (PAIDS) | DTIC.mil
AFIT/GOR/ENS/09-15
Glen R. Shilland ,
Major, USAF,
Mars 2009
Gäller först och konceptuellt enklare för Mahalanobis Distance att för resp. dimension vi mäter (ex. mängd dokument relaterat avlyssning avTyska politiker) är distansen från centralitet eller närmare / längre ifrån att varna vad som är funktion av normalt i form av medelvärde och hur vår avvikelse från medelvärdet varierar som skattat från variansen. Givetvis går särskilt variansen att ersätta med en mängd liknande mått indikerande hur informativ avvikelsen är för att peka på ett angrepp (variansen när vi antar normalfördelning ger ju oss informationen motsvarande Shannon entropi men det är kanske inte det bästa antagandet alla gånger). När nu Snowden lånar 20 - 25 personer inloggnings-token blir det mycket svårare än om han lånat en persons token.
För hotelling-transformationen handlar det enkelt om att ta ut formen för vad som definierar vad vi visuellt kan tänka oss som en ytan utifrån den yttre gräns som uttrycker den största variationen. Vi kan ex. för bilden fånga själva konturen för ett föremål (ex. ett fientligt stridsflygplan och därefter ta ut och resonera kring den formen: vad det liknar, förändra dess riktning m.m.). För ett IDS-system (utan att läst det säkert givet antal sidor gedigna arbetet Major Shilland gjort) kan vi tänka oss att det mer naturligt är praktiskt för att definiera normala funktioner i form av ex. "ämnes-ytan" eller "funktions-ytan" för vad vi försöker komma åt. Ett dokument med vissa indikatorer kan utan annat givet falla innanför denna ytan (där ytan möjligt kan vara vad systemet lär sig över tiden d.v.s. vara primärt riktat mot just otillåten access av annan person). Men även detta blir lätt problematiskt när han nu lånade 20 - 25 personers access-token.
I rapport nedan ges mer ex. på algoritmer och mer precis används k-nearest-neighbours. Även om det förvisso inte direkt hör till det mest avancerade vi kan tänka oss i clustering tror jag nog att det praktiskt är närmare vad som är funktionellt i en verklig miljö med en mängd händelser och användare om nu träning ska ske från datat (förhållandevis snabb) även om jag kan föreställa mig att behovet att definiera antal kluster kan ställa till problem vi vill agera närmare ex. projekt- eller roll-association (ex. ett kluster över alla användare skapad från en historik bakåt för där normala dokument eller liknande) oavsett metod-idé diskuterad i rapport. Även här är vi i distans och faktiskt går Mahalanobis Distance som en möjlighet bra för att uttrycka distans från en händelse till olika klusters. Välkända algoritmer från mönsterigenkänning:
- Mass: A New Ranking Measure for Anomaly Detection Kai Ming Ting, James Tan Swee Chuan and Fei Tony Liu Gippsland School of Information Technology, Monash University, Australia
Utifrån ex. varians och besläktade mått på information kan outlier diskussionen ovan vara en utgångspunkt för att förstå en gigantisk utmaning med dom här systemen:
- Har vi ytterst låg varians för en händelse som uttryckt över aktuella dimensioner (ex. ny roll införd eller ny grupp av dokument).
- Gäller för mått Mahalanobis Distance genom att skalar avståndet som distans till "genomsnitt" med variansen (för att inte varna överdrivet där naturligt hög varians gäller) att:
- När variansen går mot noll.
- Går distansen mot oändligheten.
- Och systemet varnar konstant tills ny varians-skattning etablerats.
Är det normalt blir det kanske normalt att strunta i varningar tills systemet vants sig vid verkligheten oavsett hur den ser ut.
Därmed inte sagt som någon religiös tro eller teknisk-nödvändighet att rätt IDS-tekniskt rätt hanterad rörande varningar m.m. inte möjligt hade upptäckt problemen runt Snowden. Men det tycks från början till slut att själva problemet inte låg i något rörande det eller i övrigt konceptuellt liknande: varningar fanns det mängder av och dom varningarna låg i andra domäner där icke-hantering av dom varningarna inte bara möjliggjorde angreppet utan också direkt hade gjort det svårt för en IDS att troligt leverera något i övrigt. Sitter du med accesstoken för en försvarlig andel av lokal avdelning och det i sig inte har genererat varningar och misstänksamhet bland arbetskamraterna ska man inte tro att investering i en single-fix-it-all IDS tillför något annat än en känsla av att problemet är löst.
Är en IDS utan risk?
Nej precis som allt annat vi stoppar in i våra nätverk kan dessa lösningar komma med problem. Antar vi nu att det handlar om IDS lokaliserad i sensorer och delsystem i resp. avdelning med centraliserade punkter övergripande dit data propagerar är det ex. en kanal om angripen lokalt som information kan introduceras via (ex. för att utnyttja säkerhetsdefekter relaterat hur den informationen parsas och hanteras i andra punkter) eller som mest troligt relaterat installation och initial hantering i det lokala näverket utnyttja kanalerna informationen passerar via utan annan åtgärd för att komma åt andra nätverk.
Eventuella risker och problem här är svårt att spekulera om hur obefintliga eller omfattande de är. Men generell princip är att ju mer data via parsar, ju mer komplexa protokoll-stackar vi behöver hantera med vetskap, och desto mer komplex logik ju större risk för också ganska problematiska säkerhetsdefekter får vi. Vidare om det handlar om flera generationer av kod från en mängd olika källor desto fler säkerhetsdefekter får vi och vi kan faktiskt uttrycka den mängden avseende ej identifierade säkerhetsdefekter i statistisk modell genom att ta statistiken för mängden rapporterade säkerhetsdefekter för exakt samma eller för sundare "reundans i våra tolkningar" bredare grupper av besläktade "mjukvaror".
Det ska inte sunt tolkas som att vi får en vettig mätning att använda för sådan statistisk modell från följande sökning men den är ändå med sina cirka 10 000 träffar över gissningsvis kanske 500 - 1000 defekter ungefär motsvarande vad man relevant bör skatta rörande hastighet en indikation:
Och Auscert med mindre diskussion runt enskilda problem resp. mindre diskuterat mindre egenheter närmare enskilt legacy gör cirka 30 träffar:
Varav två träffar för sista året.
D.v.s. viss hastighet redan där.
Och vid sidan allt relaterat sådana problem fodrande att man konkret bör göra seriösare quality assurance och defensive testning av defensive progrmmed and configurated givet att det vidrör potentiellt det mesta relaterat amerikanska myndigheter av alla de slag och instansieringar än normalt för IT-säkerhetslösningar är frågan nu om den som hade installerat dit det på Hawaii delvis i så fall hade varit Snowden?
Snowden lärde upp "vardagens maskinlösa humanoida" IDS att se samlandet av kollegornas access-token som normalt. Ungefär som problematiken indikerad i följande avhandling:
"Machine learning has become a prevalent tool in many computing applications and modern enterprise systems stand to greatly benefit from learning algorithms. However, one concern with learning algorithms is that they may introduce a security fault into the system. The key strengths of learning approaches are their adaptability and ability to infer patterns that can be used for predictions or decision making."
Från: Behavior of Machine Learning Algorithms in Adversarial Environments | Dtic.mil Blaine Alan Nelson Doctor of Philosophy in Computer Science University of California, Berkeley, 23 november 2010
För ex. från en helt annan och tror jag väsentligt enklare domän på hur vi kan tänka kring roller, projekt, funktioner m.m. som förändras över tiden för individ såväl som kopplingar i grupp (varaktig avdelning, team o.s.v. och rättigheter definierade för tillfälliga projet) ges i rapporten nedan:
- A Military Vignette for a Heterogeneous Data Proximity Tool (HDPT) Study Eric G. Heilman Computational and Information Sciences Directorate, U.S. Army Research Laboratory Aberdeen Proving Ground, MD 21005-5067 Juni 2013.
Vi kan se konceptuella - om än möjligen vad som ligger längre fram än var man kanske idag står kring interna IDS-koncept - möjligheter från domänen diskuterad ovan att låta intern IDS kombinera med mer allmän övervakning av resp. medarbetare. Funktionellt i meningen ej antagande att man vet mer än vad man gör tror jag metod inte ovan gör förenklade antaganden om datats distribution ("MDS is a dimensionality reduction technique that is tolerant of and applicable to large sets of high-dimensioned, sparse, non-Gaussian data." - se också Wikipedia: MDS och notera att vi i distans-mått mycket möjligt laborerar med varians och centralitet) också om det nu säkert ofta är praktiskt helt funktionellt att få fram normalfördelningar för dimensioner man följer utan att det är någon praktisk nackdel och kanske ofta bättre än "rang-/ordnings-relaterade" mått.
Vad är Snowden?
En något besläktad fråga men ej relaterat de ev. riskreduktioner rörande "Snowden-incidenter" eller ev. risker introducerade eller icke-påverkan är att om vi antar att IDS-lösningen är fantastisk och det är känt om någon särskild anledning att försena den fanns. Rörande det får jag erkänna trots den gigantiska uppmärksamheten i media att jag varken tror på eller inte tror på "konceptet" Snowden.
Det tycks inte oimligt och jag kan mycket väl tänka mig att det kan ha inträffat som unefär indikerat: Snowden plockar åt sig en massa dokument, flyr till Ryssland och USA's stora lånegivare Merkel visar med sin irriation korrektheten. Samtidigt upplever jag utan att vara säker på att jag inte missat någon power-point eller dokument publicerat att förutom en del termer från den lokala kulturer resp. nummer och antal indikerade har ingenting ej känt publicerats. Vi kan relaterat det peka bl.a. på följande ganska olika förklaringar:
- Snowden & Co har inte väldigt många dokument eller tillgängliga.
- Det primära med hela Snowden-skapensen var att ge en enkel förklaring till diverse andra läckor och problem från flera år men där det hela kanske blev tämligen stressat. Istället för att göra fiende-arbeten hos NSA flera år blev det tvunget att rusa iväg trovärdigt potent medan annan medarbetare viktigare (kanske involverad Snowdens kontrakt eller underkontrakt) kan sitta avkopplat kvar hos NSA eller leveratör till NSA med god insyn för att igen börja rapportera till Kina eller ev. Ryssland (Kina har ju hjälpt Hawaii-funktioner att dela information förr) när det lugnat ner sig. Relaterat det tycker jag uppgifterna om att Snowden tillbringade tid på Ryska ambassaden i Hong Kong om korrekt luktar illa såväl som jag tycker att det luktar att Wikieaks inte (om jag inte missat det) publicerat dokumenten relaterat Ryssland man indikerade att man hade.
- Mycket dokument finns men:
- Ryssland eller liknande samarbetspartner vill ha mindre publicerat därför att man inte vill att NSA & Co ska veta exakt vad läckt så att man inte korrigerar och ändrar mer teknik-nära koncept i onödan.
- Dokument som planerat i huvudsak är vad Snowden & Co beställer från kamrater inom NSA m.m. där man tar det väldigt väldigt långt just nu. Antingen därför att många dokument fröstördes relaterat flykten eller som tänkt också från början.
- Konceptet var del av en mycket möjligt värdebyggande delkomponent i en lösning för att komma till rätta med den USA-paranoia som ev. toppade runt 2009 och skadade amerikanska affärer. Man tar ut saker ur dimma och gör det på ett sätt som kan accepteras som trovärdighet i det. Och som bonus åker Snowden över till Ryssland för att hjärntvätta Putin att sälja helikoptrarna USA handlar till Afganska regeringen billigare.
Eller mycket möjligt troligast filtrerar man från en ganska begränsad mängd dokument där det mesta är mer eller mindre ointressant eller i huvudsak obegripligt i långsam takt.
Saken är att det är välidgt svårt att från informatonen som gjorts känd väga mellan dom här koncepten. Jag har bara som ett ex. inte noterat (men ej heller särskilt sökt efter det) att något i media vandrat bakåt i Snowdens liv talande med gamla vänner m.m. och det är ju heller inte att väldigt många Snowden-foton har publicerats. Därmed inte att jag föreslår att Snowdens kanske snarast är i något tillstånd liknande det Snowden i Joseph Heller's Moment 22 är när bokens handling utspelar sig - snarare att väldigt lite är görligt att bedöma från det lilla som gjorts känt. Enklast väljer man bort tillsvidare att tro eller inte tro på Snowden ('s existens m.m.).
Vill man försöka bedöma hans språ där jag inte gjort någon seriös modell eller samlat något corpus kan man ev. få intryck att Snowden är en snabb "social-drill" när han går in i dialog med folk han (som spekulerat rörande internet-alias) "träffar" över kanaler där han kontinuerligt är närvarande eller om vi så vill bevakar. Det är inte alls ovanligt naturligt för en del personligheter som naturligt uttryckt i populationer men det är också en tidseffektiv teknik för att få "träffar" att ta vidare. Det stämmer dock inte vad jag sett i uppgifter med roller Snowden uppges ha haft under sin CIA-tid.
Kort sagt: Snowden luktar men det är svårt att förstå vad han luktar tills mer om någonsin blir känt från hans övervintrande den kalla den of snow Ryssland kan vara sommar och vinter.
Relaterat: IDS-lösningar bland amerikanska myndigheter
- IDS:er som använder gammal kod för protokollstackar på nya sätt (2010-02-16)
- Due dilligence i nätverkssäkerhet (2010-03-03)
Föregripande juni 10, 2013, och kan vi därför rimligen utan annat känt anta är helt icke-relaterat (om ens alls relevant här vilket är mindre troligt):
Relaterat: IDS i sociala media
Ger en kanske enklare ingång för många för att se möjligheter relaterat IDS från en domän de flesta idag använder själva och från en teknisk nivå ej skild från den information användaren har i sitt perspektiv:
- Enkel IDS för godtyckliga sociala media (2009-07-30)
- Whitening för ökad säkerhet i sociala media (2009-07-30)
- Tidsanalys i sociala media
- Säkerhetsproblem för sociala media i sammanfattning
Relaterat: Hypotesprövning med t-test
Students t-test är praktiskt mycket nära besläktat Mahalanobis Distance. Men som vi kan lära från det i komplexitet mer krävande området natural language processing men med väsentligt mer data tillgängligt kan hypotesprövning med t-test fungera enklare lite bättre.
Särskilt om man våldar lite runt om uttrycket i hur vi approximerar varians. Och praktiskt i hur vi sätter signifikansnivå enkelt och begripligt införande utrymme för approximationerna.
Alla "dom här" måtten är ju ganska snarlika men just därför är det kanske vettigt att se möjligheter precis runt om Mahalanobis Distance.
Foundations of Statistical Natural Language Processing - 5. Collocation har ett ex. där man våldför sig med approximationerna för att praktiskt lösa ett inte obesläktat problem vettigt. Kompletterande se att vi beroende på omständighet av och till kan approximera varians som funktion endast av P(A) och P(B). Det finns ett bättre exempel i någon av mina andra referenser böcker runt NLP men jag är osäker på var jag har de två böcker som kan vara aktuella (ev. kanske jag kompletterar).
Kostnad för hårdvara: 40, 80 eller 160 bitar
11/05/2013För mycket länge sedan - cirka 1997 kanske gjorde jag bl.a. MD5 och GOST i Javascript (som på den tiden hade en del intressanta defekter i bitoperatorerna rörande randvärden) - vilket säger en del givet mycket praktiskt funktionellt för MD5 hur tilltalande snabb den är.
Särskilt mycket om någon egentlig form av bevisad säkerhet har vi inte i familjen då eller senare men givet deras betydelse har vi ändå en ganska bra bild av ungefär vad säkerheten kan ligga. Problemet får man där dock säga att "inflationen" i hashfunktioner av den här typen (såväl som numera kanske RSA) är brutal jämfört med alla år med upplevd och troligt praktiskt alldeles utmärkt (utanför ECB mode) säkerhet DES gav. Datorer och algoritmer för analys har rusat snabbt sista åren.
Jag noterade att certifikatet utfärdat så sent som nyligen i år i bild Eric Schmidt om NSA vilket förvånande mig lite från vad ungefär känt 2005 om problematik. Jämför vi utifrån aktuella nyhetstrender med NSA som en normalitet vi önskar uppnå i säkerhet gäller att vi börjar med:
- 160 bitars hash vars beräkningskostnad att söka kollisioner eller på annat sätt missbruka vi lämnar icke-normaliserad mot något.
- Birth-day paradox tar oss ner till n(280).
- Där är vi på samma antal bitar - ej riktigt rätt men ej heller helt fel att jämföra med blockchiffer opererande på 64-bitar när ungefär snabba med den generationer - Skipjack hade i symmetriskt krypteringsnyckel.
- Minns jag rätt från dom åren var hela poängen med Skipjack att du kontrollerar hela nyckeln med att 40 bitar av nyckeln är sparad innan på medium myndighet kan nå.
- 40-bitar är förvisso inte enormt arbete för någon nu - och görligt för väldigt många redan då också om det tar tid körande ex. på några Sparc4 - och publicerad 1998 (vilket egentligen inte säger något vilken hårdvara den redan kan ha funnits implementerad i ex. radio-förbindelser och liknande relaterat försvarslösningar kanske).
Vi har med andra ord en nedre lätt gräns och bästa gränsen för SHA-1. Och från det första mer signifikanta och realistiskt "indikerande" om möjligt har vi:
"In February 2005, an attack by Xiaoyun Wang, Yiqun Lisa Yin, and Hongbo Yu was announced.[15] The attacks can find collisions in the full version of SHA-1, requiring fewer than 269 operations. (A brute-force search would require 280 operations.)
The authors write: 'In particular, our analysis is built upon the original differential attack on SHA-0 [sic], the near collision attack on SHA-0, the multiblock collision techniques, as well as the message modification techniques used in the collision search attack on MD5. Breaking SHA-1 would not be possible without these powerful analytical techniques.'[16] The authors have presented a collision for 58-round SHA-1, found with 233 hash operations. The paper with the full attack description was published in August 2005 at the CRYPTO conference."
Från: Sha1 | Wikipedia
D.v.s. no-good och hur no-good beror på vad vi gör med det (kombinerande med gränszon på trygg bitlängd för RSA känns vådligt för något med permanent värde).
Jämför vi med hur jag tror mig minnas att Bitcoin gjorde kombinerar det en av SHA-generationerna med RIPEMD-160 bitar vilket troligt reducerar risken för optimerade angrepp som identifierade i vardera ganska tydligt. Men någon egentlig bevisad säkerhet finns ju knappast och kanske är den ökade säkerheten inte mer än själva-beräkningskostnaden som funktion av att ha förberäknade värden krävande mer utrymme.
Ska jag spekulera tror jag emellertid NSA som tänkt angripare antagligen föredrar kortare RSA-nycklar och möjligt inte heller att det mest effektiva är vad vi utgick från här. Det är som när man tappat något: ofta letar man där man tycker att det borde ligga. Och hittar man det inte letar man lite till medan mindre troligt dröjer längre tid innan man söker. Och med som jag tror tämligen korta RSA nycklar vanliga är det nog vad man helst söker först och främst :-) SHA-1 med 2048 är kanske idag på gränsen.
Förgiftad information
En alternativ metod till kryptering är ju annars att implicit försöka undervisa avlyssnande entitet ex. i utrikespolitik förklarande hur sådant som Merkel, Tyskland, bäst ska hanteras ("They all nazis - u didn't win the war to let her build up undetected. Check up on Fritz before it is to late.", "Bagdad filled with problems: at vacation I am sure I did see three tactical nukes."). Det kan vara förvånadsvärt effektivt.
Det går att göra på Johnny English också: Varje gång jag irriteras ordentligt på EU gäller det bara att uttrycka det rätt e-postande lite fram och tillbaka med lämpligt gratis konto i UK så löser det sig: "England - the wall against the uncivilised non-polite danger - Napoleon, Hitler - Today EU - once again fooling the english - is nothing but a big industry site building waste hoards of naval units." Räcker åtminstone till en möjlig folkomröstning om än inte ett nytt Napoleon-krig.
Beräkningskostnaden för att reducera sådana risker är svårare att enkelt kvantisiera.
Eric Schmidt om NSA
11/05/2013Att läsa här:
Eller WALL Street Journal:
Men under förutsättning att vi kan hålla reda på dessa anser att de representerar Wallstreet Journal i trust - där verifikation av det samma givetvis skulle kunna uttryckas i X.509 - och faktiskt nu tror att vägen dit datat färdas bär förtroende förutom att manuellt verifiera certifikatet för att se förbi varningar om att entitet som skickar oss information d.v.s. Akami-mellanlagret ej uttrycker domännamn med vilka det utfärdats till.
Men mycket föredömligt snabbt laddande så här och knappast bara från mellanlagret utan också med diverse non-trusted content som ej kommer ladda ner refererat på sajt utanför vad data direkt kommer från i SSL-sessionen d.v.s. från Wallstreet's webbplats ej existerande i mellan-lagret som uttryckt.
Snowden: Transfererad för att translatera från dom elliptiska kurvornas välkända språk
10/29/2013Mer Snowden uppsniffat på webben:
Emellertid kände vi ju alla till att den liksom inte helt ovanligt mycket också nått standard och implementation. Understryker betydelsen av diverse gamla krypteringsbibliotek in-kompilerade i allt möjligt.
Det känns alltid lite speciellt varje gång Snowden berättar teknik-relaterat redan känt och dokumenterat för den som verkligen seriöst engagerar sig att gå över saker och ting publikt (inte för att just detta är annat än mer uttryckt också runt problemen).
Vad konkret betraktande några av de första power points jag direkt känner är verkligt nytt eller med kännbar distas är enstaka termer där jag upplevde nytt. Ex. förståd jag då aldrig riktigt SSO om menade ex. single-sign-on. Det gjordes mycket senare tydligt för mig att det troligare rörde en administrativ-enhet hos myndigheten.
Språkkultur och begrepp är ju också känt i alla fall bland alla medarbetarna.
Jag vill ogärna eller egentligen inte alls dra någon slutsats från något av det varande föga möjligt. Ex. knappast föreslå att ej tog med sig dokument m.m. Svårt att riktigt bedöma här. Många dokument hos andra ska ju ha raderats av en journalist där också på uppmaning av en brittisk myndighetsperson.
Själv fundeear jag annars mest hur man kan tappa bort en nyhetsreferens och anteckning minnas något som ett pågående samarbete mellan Kina och USA rörande listening post på en ö i Stilla havet. Sökte efter den flera år på alla möjliga sökord helt antagande något närmare Asien. Hawaii var inte vad som ens kom associerat runt det. Och pågående samarbete lär väl knappast ha varit annat än någon av de arresterade och idag säkert dömda kinesiska spionerna (eller möjligen en). Först skrev jag förövrigt tappande mast här men jag var inte mer säker här efter något år om det kanske rent av var något seismografiskt undervatten. Hittade ingenting runt det. Aldrig tillbaka till den. Tills nu. D.v.s. lätt att förvirra sig när plöjer igenom en bunt av nyheter förhand och tappat bort något intressant. Här är den:
Referedad url Washington Times från Google gruppen fungerar inte längre men bekräftade den när hittad för ett tag sedan. Dessutom kände jag igen den.
Tråkig pro-diktatorisk preferens rörande hacking och denial of service
10/27/2013I den mån - och i allmänhet är hela domänen när inkluderande med demokratiska system att hellre använda vad jag vill föreslå är fealtig - ev. denial of service angrepp som ev. genomfört nedan:
Kritiskt för att ej upplevas lika troligt vara något kontor för kinesiska kommunistpartiet eller KGB att se till att man som normaliserat mot totala mängden för resp. land övergrepp på befolkning uttryckt angrepp också mot andra länder.
D.v.s. bland annat tycks många diktaturer under-uttryckta där nu när påpekat hoppas jag är att förvänta inom korrekt att man antingen slutar helt att moppa USA eller ser till att diktaturerna blir ordentligt uttryckta en period.
Jämför gärna med Wikileaks som enligt egen uppgift ska en massa ryska papper man dock valt att ej publicera efter gissar jag tämligen icke-substansiella hot. Det är en vekhet i grund-moralen som är lätt att hamna i om inte inser realitet att bygga från kraft hos en själv.
Förnärvarande är det svårt att se från verklighet annat än att demokratier är mycket mer troliga kring sådant här (accepterande tidsfönster) och jag är inte alls imponerad av det. Accepterar vi att någon mening alls existerar med sådant här från media-synlighet måste vi också acceptera att diktaturer relativt förstärks från. Moralisk meditation med på det förändrat agerande är vad jag tror de flesta - nära nog alla i världen - hellre ser oavsett om man väljer att lägga ner verksamheten eller ser till att kompensatoriskt börja hämta ut kinesiska dokument från deras myndigheter man ej önskat få publicerade därför inkluderade omoralisk aktivitet eller jämförbar god verksamhet utan någon av annars existerande problematik med sådant.
Microsoft tips: Kopiera istället för att skriva av eller skriva ut skärmdump
10/24/2013Konceptuellt i idé och möjligheter - men vad jag tror många av oss gärna delar hellre än att profitera på i ett nytt operativsystem byggt från alla möjligheter indikerade - med Microsoft ropar på hjälp (igen) med nytt försök att slippa ansvaret för säkerhets-debacklet ser vi när fakta om datorn önskas förflyttas från data givit av operativsystemet (Microsoft Windows 7 eller något liknande) till webbläsaren. Vanligen antar jag eftersom funktion för det tycks saknas prövade lite av varie skriver man av det (eller kanske gör en skrämdump man skriver ut):
Men tänk om man istället kan kopiera texten och sedan kopiera in den i webbläsaren för att lösa ett problem med samma OS i dess ständiga samarbetsproblem med en divergerad med hårdvaruleverantörer (just här dock vilket kanske egentligen är mer problem bara intel).
Antar vi att en rationell orsak finns till varför det inte går kan det kanske att se några stycken men dom känns inte avkopplande med mig. Mer sådant man sorterar in med saker man förundras över - och lätt ifrågasätter om någon riktigt bra egentligen gavs med oavsett hur förslöat enkelt det - inte kräver dom regelbundna ominstallationer man förr gjorde med Microsoft.
Men det är lite intressant hur mycket små-skit man star ut med på en dator utan riktig betydelse för att slippa allt akut-skit med att installera något annat på den istället. Understryker i alla fall som något värde man lärt betydelsen av att något basalt fungerar hjälpligt eftersom det alltid för mig i alla fall känns som vad jag gör med något mer substansiellt behov än televisions- och film-missbruk och nyhetsläsande. Och trots alla små-problem och irritationer fungerar ju Windows acceptabelt för det även om den lätt tenderar att bli irrationellt slå givet hårdvaran av och till.
Överraskande Imponerande i IT-plattform: Extremt effektivt
10/13/2013Två komponenter - den ena som först efter säkert ett års användning som började visa sin tycks det helt odokumenterade sanna prestanda - som presterar extremt över allt jag är van vid.
BitTorrent
BitTorrent hör till en tror jag ganska stor grupp av infrastruktur relaterade tjänster och lösningar som kommit efter att jag i ålder passerade mitt it is easy to try all new shit people make. Mycket snabbare nedladdning åtminstone med ett stycke internet i sista biten från Telia för hemma marknaden än vad Google Chrome klarar.
Jag har heller aldrig seriöst i alla fall läst över hur den fungerar. Ev. minns jag ungefär rätt i att den tar jämfört den abstrakta princip som TCP/IP mycket mer förr var byggt på i att stycka trafik och låta den färdas friare. Över åren har ju den principen reducerats praktiskt även om infrastrukturen anslutande varandra såväl passerande trafik mellan intressenter följer den.
En snabbtitt BitTorrent (Wikipedia) för första raderna tycks bekräfta detta. Och också att den likhet i indikerad abstrakt-princip just uttrycks mot segmenten där den reducerats på nätet. Detta genom att resp. nod små-delar av filen kan laddas ner från konkurrerande antagligen oftare kan vara spridd över flera delar på nätet d.v.s. olika företag, kanske privatpersoner m.m. var och en också placerade hos olika internet-provideras. Reduktionen av den abstrakta principen för TCP/IP-trafiken ligger ju just hur internet providers, stora innehållsleverantörer m.fl. hanterar sin trafik resp. mellan-sig (ex. genom optimerade anslutningar eller strympande trafik mot slutanvändare beroende på om de betalar 60 kr eller 400 kr per månad eller liknande summa).
Ubuntu
Efter år av användning av Ubuntu har jag sista halvåret kunnat konstatera att dess prestanda radikalt - gigantiskt faktiskt - förbättras efter att fått gå utan omstart åtminstone sex veckor och når kanske topp vid cirka två månader.
Jag känner ej till orsaken (det är ej uteslutande - eller ens mer än ett fåtal procent - relaterat förändring av processer igång resp. vilka som default startas med annat konto än vanligt användarkonto) där skillnaden praktiskt ligger i att jag kan köra in något över 1 GB av text-filer in i mittet i ungefär tio konkurrerande processer förutom som sista gången idagarna också med cirka 20 st (troligen som mest hela alfabetet samt ev. någon av 0 - 9 i antal) mindre minneskrävande processer. Detta för varje process som vanlig användare men med prioritet för allt satt till 19, och alltid startad i Perl-tolk. Fascinerande nog ligger det här åtminstone på gränsen för vad som jag fått för mig är tekniskt möjligt att referera i omfång för minne (där kan jag dock förstått fel därför jag tittade endast en gång snabbt och ytligt).
Vanligen orkar det över färskare efter omstart på en glad och solid dag upp till cirka 850 MB under i övrigt ungefär samma situation. Occh gärna att jag försöker undvika att trycka upp det till mer än 350 till 600 MB.
Datat är strängar (motsvarande a och b) i ash-tabeller där lagrat värde är heltal: $tabell{$a} -< {$b} = heltalet.
Också i övrigt extremt välfungerande och snabb.
Kanske någon hell I am dying and fall back to some we thought lesser default handling ex. av process och resurs-köar m.m. Kanske diverse algoritmer som i publicerad forskning verkade överlägset men praktiskt var sämre än äldre enklare varianter (first-come-first serve m.m.).
Indikationen är självklart att det troligt lönar sig enormt att ta distributionen - eller ev. enklare annan - och gå över den ordentligt när det gäller möjligheter som finns långt ner i process- och minneshantering när man verkligen har behov av att trycka upp vad som går att ta ut från hårdvaran. Rörande det är jag inte riktigt övertygad om att de Linux-distributioner optimerade prestanda egentligen berör vad jag fått för mig egentligen är orsaken (där jag specifikt inte tog upp det här men antagligen återvänder till det senare när jag ev. infört det här så att jag också kan boota om utan att behöva vänta evigheter tills sannolikhets-distributionen tillslut tar OS och hårdvaru-mötet till tillståndet).
Microsoft ropar på hjälp (igen) med nytt försök att slippa ansvaret för säkerhets-debacklet
10/13/2013Samma debackel de glatt och lönsamt var minst sagt drivande i att bygga allt genom åren. Här - vilket jag som snusare väl förstår - är en initial tyst minut med medlidande över hur svårt ett missbruksproblem kan vara att bryta korrekt innan vi tittar över hur defekt de divergerat från en friskt tänkande organisationer när dom är i domänen säkerhetsfrågor.
Microsoft's säkerhetsproblem med sina OS-klienter har varit legio genom åren. Två stora grundläggande problem ser jag särskilt. Dels diskuterat förr en enorm fet-OS-kärna jag tror är helt korrekt att hellre se som minst tre till fem olika OS som sammanförts i ett prestanda- och säkerhetsmässigt dåligt fungerande försök att slippa koda om funktioner för att få program-kompatbilitet över och mellan (alla?) Microsoft generationer och varianter resp. Microsofts varianter av POSIX m.m.
Problem två är att Microsoft förlorat så många gånger när det kommer till klientsäkerheten att de nog börjat tro att det är normalt och givit upp lite som naturligt tillstånd. Konsekvensen av det är dels att de försöker undvika att ta ansvar genom att införa pseudo-lösningar som tycks fungerande på pappret men i praktiken inte fungerar. Ett utmärkt exempel är deras gamla idé om kodsignering som varken kommer med behov av att ta egentligt ansvar för koden eller förändrat de mer problematiska praktiska säkerhetsproblemen för de flesta användare i deras upplevelse (vilket är diverse junk-program som i sig är säkerhetsproblem resp. för in dåligt dokumenterade komponenter ej önskade resp. ersätter grundläggande komponenter resp. förstör inställningar i OS). Samtidigt kan jag inte se att gör något alls åt internet-infrastrukturens större problem relaterat Microsoft klienter vilket är introduktionen av fjärr-användning av Microsoft-klienter ex. för distribuerad denial of service. Sådan inställning använder ju i sig själv normalt i alla fall inte kodsignering eftersom det är olagligt och kommer i alla fall med viss risk (om nu kodsigneringen ej köps ex. med stulet kreditkort från privatperson eller något företagskort ex. från Microsoft vilket räcker bra åtminstone för en del CA-utfärdare när jag tittade på det för en artikel IDG många år sedan men med mitt eget kreditkort givetvis).
Det värre problemet av att Microsoft givit upp är de många mindre saker man kan göra som aldrig görs därför att individ-lokal såväl som övergripande drivkraft saknas. Ett av många enkla åtgärder som praktiskt kan hjälpa användare både att upptäcka och lösa problem akuta man rimligen borde infört för evigheter sedan är ett gott exempel därför att det kräver ingenting nytt alls i OS: det handlar endast om att presentera information på en plats till. Åtgärden går förvissa att manipulera om jag känner Microsoft's OS-lösning rätt men realitet är att det troligen regelmässigt skulle fungera samtidigt som de flesta antagligen inte gör det ändå korrekta lösningen när OS varit angrepet: ta ner alla uppdateringar från en ej angripen dator, formatera angrepen dator, installera OS från CD-skiva, installera alla aktuella uppdateringar från CD-skiva, konfigurera OS från papper eller med annan dator vars skärm vi ser med internet från allt aktuellt känt , installera alla ev. sekundära säkerhetsprogram från CD-skiva och därefter sist återställa internet.
Åtgärden är helt enkelt att i processhanteraren ge information - om man väljer att ha det kvar - när den kod som körs som process installerades. Det ger enkel möjlighet att kontrollera vilka ev. odokumenterade processer en installation kan ha igång.
Ett exempel på en till - åtminstone utan allt som sakns i övrigt - pseudo-lösning de börjat fundera kring relaterat lätt till ett område jag i början av karriären gjorde en del kring (först på Ericsson med implementation av Keynote i Java istället för C som i referensimplementationen en liknande men praktisk bättre standard och därefter en del annat som vanligt relaterat konsulttjänster silence-agreement men ej lika omfattande som först refererat): signerade policy-system för att lösa privacy-problem. Felet är exakt samma som för signerad kod:
- Väljer vi att följa det kan vi göra det.
- Användarna är mer benägna att samtycka standard-artat för att få något att bara fungera.
- Ansvar genom en ursäkt för att fritt med dåligt praktiskt informerade användare ges för Microsoft med flera aktörer.
- Vill jag strunta i att använda det men ändå våldföra mig på användare av Microsoft klienter i domän av privacy fungerar det jämförbart.
- Vill jag missbruka systemet i sig utanför vad definierat är det för policy-system möjligt att begränsa men ingenting jag sett här lär lösa något relaterat det för mer problematiska privacy-frågor.
Som nyligen konstaterat bl.a. i följande studie från medarbetare Google Research resp. University of California at Berkeley gäller (som välkänt sedan år) samma problem när det kommer till SSL-certifikat. Användare trycker sig förbi varningar därför att målfokus är att få sidan eller filen som ska laddas ner:
På tema av en fet-os-kärna där man försöker återanvända mycket man redan gjort tycks det vara ett falerat licenshanterings-protokoll riktat för musik, film m.m. Microsoft reflekterar över:
Jag träffade för övrigt Craig Mundie en gång. Funktionen han fyllde vid det tillfället upplevde jag var att vandra runt bland inbjudna journalister och hälsa på dem varande en känd Microsoft-medarbetare. Däremot tror jag vad jag kunde se i konferens-rummet i alla fall att just någon tid där i alla fall att ställa frågor till honom fanns. Jag tror ett liknande värde för att i media pröva sådana här förenklingar av det egna ansvaret finns. Ett kändare namn ger en bunt rubriker och kaske viss respons.
Rörande allt här får aldrig det första grundproblemet glömmas. Är OS i sin grund-konstruktion vettigt betyder det enormt. Linux är inte särskilt avancerat i säkerhet eller ens alla gånger speciellt säkerhetsmedvetet programmerat. Men bara genom ett vettigt omfång på saker och ting mer än att bara humpa in (ev. lite överdrivet) nästan hela kodgenerationerna bakåt av allt man presterat genom åren försvinner oerhört mycket av problemen och praktiskt får man som användare mycket färre problem.
Diverse defekter Google Chrome, Google sessonshantering m.m.
10/13/2013Rörande Google Chrome uppdaterade den sig nyligen. Också om den uppdateringen jämfört med tidigare märkte ut sig genom att introducera en mängd problem har den tycker jag en ny bra sak jag gissar kommer från Google's antar jag övergripande stöd för att hantera sina egna nät och resurser effektivt. Denna sak noterade jag när jag laddade ner från ett i tysk-mening mindre till (nedre) medelstora segmentet av universitet. Normalt kan man ha upp till ett mindre antal pågående nedladdningar som ej är del av en html-sida på flik. Universitet orkade dock i väldigt uppenbar mening inte nedladdningen även om deras webblösningen föredömligt klarade att hålla sessionerna i liv växlade den efter cirka 10 - 20 minuter mellan att ge 0 kb/s under minuter på cirka hälften av sessionerna (för Google Chromes max-antal vilket eventuellt är sex till åtta). När jag skulle ta nästa omgång av cirka åtta nedladdningar (samtliga ungefär 120 - 280 MB stora filer med träningsdata relaterat språkanalys jämförande engelska och tyska) tillät Chrome endast att en nedladdning startades i taget mot universitet (som den konvergerade med ett ev. mellan-steg startande två).
Befintlig begränsning och ibland problem med kö-system för nedladdning när man ligger på max-antal är att Chrome inte ger tillgång till kön utan kastar upp filnedlagringsfönster allt eftersom pågående nedladdningar går klart. Ibland när det tagit tid gör det att man sparar ner filer på fel plats och därför behöver ta ner dem igen efter att blandat samman dem.
Även om hade kunnat tro att jag skulle gilla en del av förändringar närmare hur jag använder Chrome är ju just därför praktiskt allt i dom nustartade tomma flikarna helt poänglöst för mig. Samtidigt är den funktion jag där uteslutande använde och lärt mig att nästan automatiskt använda: starta upp flikar jag dödat av misstag p.g.a. av felklick, dubbelklick, peka-grunk på laptop som tolkar handel fel m.m. Det finns i istället på meny-systemet som praktiskt tar väsentligt längre tid för mig. Så helt klart sämre. Samtidigt är jag trygg i att Google med alla sina programmerare säkert sitter och arbetar på att göra dom nya flikarna helt konfigurerbara med ett enkelt zero-human-learning-needed-drag-and-drop interface. Det kommer bli trevvligt.
Många felkodningar, defekter m.m. som dyker upp hos Google nämner jag aldrig även om det och av och till kan få dem korrigerade. Berör de mig tydligt eller dom är gamla och stör i alla fall lite brukar jag gör det medan jag annars gillar att notera dem på ett litet papper för att följa det föga korrekt i statistisk mening men ändå lite intressant för att få lite känsla kring en mekanism relaterat relativ-effektivitet mer huvud mellan små och stora organisationer och känsligheten när mindre växer sig stora.
Ett sådant äldre fel ligger i Google Web Search (där jag just nu totat följer cirka nio till 11) och hur den terminerar mig efter att ha klickat på vissa typer av sökresultat som är PDF-dokument. Felet är ett klassiskt datafel kommande från människans - inom allt data överrepresenterat vilja att både göra egna saker såväl som göra massor av var och en redundanta standardiseringar för att lösa det - och där ett av de äldsta: börjar vi räkna på noll eller ett? Noll är korrekt men en del renegans och heretics tänker fel och skapar programmeringsspråk, api:er m.m. där man börjar räkna på ett. Och därför blir detekter relaterat början och slut på serier man adresserar antingen börjande på noll eller ett vanliga.
Felet för Google som antingen ligger i hur de lagrar information om pdf:dokumenten relativt hur webbsökning vill utifrån vad jag sökt på placera mig i dokumentet eller senare hur de pratar med den pdf-tolkande komponenten i Chrome. Jag lutar åt att det kan vara det senare - ev. beroende vad nu just denna använder även om jag har för mig att samma problem finns på Ubuntu - därför att jag kan också få det när Google Chrome renderar pdf-dokument som ligger i ett delfönster med html runt-om-kring där det åtminstone för väldigt många journal-hus som gör det visas börjande på sida två i artikeln medan detta försvinner när jag klickar för att välja se dokumentet utan html-ramar. Samma fel relaterat webbsökningen är att denna placerar mig där jag borde (med all rimlighet från var sökord finns relaterat ex. rent av en-gång sista blanksidan före en sida med baksidan av en bok som sista sida). Att Chrome renderar egen osynlig html som del av hur den skapar och hanterar sidor verkar väl därför troligt och antagligen en ganska genomtänkt sund lösning genom att det återanvänder tolkningskod man redan gjort. Kanske därför relaterat dom knappar för att förstora, vrida på dokumentet eller något alltid osynligt för första sådan rendering. Men så klart svårt att veta.
Den allmänt mer uppmärksammade grupp av defekter noll och ett fel kan leda till är ju minnesfel där man läser fel-data i allokerat minne eller vandrar utanför det. Google Chrome vad jag minns har dock aldrig krashat relaterat ett pdf-dokument för mig. Däremot har min Microsoft Windows dödat Google Chrome sedan sista uppdateringen två gånger på minnesfel relaterat Flash. Vidare harsedan uppdateringen prestanda-problem relaterat Google Youtubes plugin blivit vanliga - oftast på långa sidor som arkiv-sidor här på bloggen med flera - men också tycks för mig när man har flera på en liten sida eller flera i flera flikar. De två minnesfelen gillade jag. Jag har alltid känt och tyckt längre tillbaka att format med en sådan enorm historia av enorma bl.a. säkerhetsproblem är tämligen vådligt att bara första se som inkapplingsbara samtidigt som de är också är oerhört feta i kostnad och därför är väldigt värde-donerande när hårt optimerade. Det kändes - helt säkert precis som obenägenhet att pröva nya saker en konsekvent att jag kanske lite i förtid speglande min personlighet börjar bli sur-gammal - trevligt att en av de mer seriösa inkapplingslösningarna i en webbklient här tycks falerat på att hålla det från minnesfel på nivå nöd-dödat av OS.
Ett till fel något besläktat konceptuellt är att om jag har två sessioner mot Google inloggade samtidigt från samma IP framför två datorer men korrekt givetvis identifierbara som unika maskiner på vanligt sätt utan något avvikande från normal användning gäller att när den ena av dessa sessioner bryter anslutning direkt (detta var från sista gången många månader sedan jag lät min utvecklingdator få internet-access en kortare tid där jag blev tvungen att direkt bryta anslutning via kabel därför att en del indikerade att odokumenterad gick in i tyst-loggningsfunktion mellan bredbandsgrunka och resp. dator: ev. till min lap-top men mycket möjligt riktat utvecklingsdator) klarar Google's lagringsfunktioner hos sig ej av att separera information från den session som bröt anslutning med den andra sessionen.
Resultatet praktiskt i vad som märks mycket tydligt blev att en lokal webbserver på utvecklingsdatorn som när utvecklingsdatorn varit utan internet besökts med Chrome synkroniserade denna historik med Google centralt. Och detta propagerade ner till min bärbara dator som aldrig på något sett ens skickat ett icmp-paket eller något annat till utvecklingsdatorn. Och vidare att ingen ny synknronisering tycks ske från din bärbara datorn innebärande att den alltid startar upp med två flikar försökande komma åt den endast lokalt på utvecklingsdatorn tillgängliga webbservern. Alltid.
Resultatet av detta publicerade jag bildumpar av direkt efter det inträffade (samma dag tror jag) på Hans Husman om Media därför att en till mer problematisk förklaring hade kunnat ha varit fallet men det kunde uteslutas senare samma dag eller dagen efter där samtidigt jag bedömde förklaringen jag gav här som den troliga (jag ser ingen annan möjlig förklaring jag inte redan kunnat avsluta genom att gå över trafiken som dumpas mellan internet-box och datorerna respektive oberoende varandra. Nedan har vi färska skärmdumpar gjorde efter jag började skriva på detta inlägg. För att avvika från normalt avslutande av Chrome resp. miljö starta upp för att se om det klarade att ställa om det hela att döda Chrome från Microsoft's processhanterare samt starta upp Chrome igen utan internet access. Detta gör dock ingen skillnad (också demonstrerande att historik från lagrat hos Google propagerar till lokalt lagrat på annan dator som aldrig besökt sidorna eller ens någonsin försökt referera eller ens pinga, skicka icmp-paket eller något annat till dator där sidorna vi ser i skärmdumpen finns).
Felet stör mig överhuvudtaget inte praktiskt. Jag bryr mig inte i vad Chrome startar upp med för flikar. Däremot så klart små-intressant i andra domäner relaterat hur Google hanterar sessionshantering av inloggade användare och hur det fungerar i kontext av klienternas lagring, lagring hos Google m.m. Om det presenterar något som visar på att enklare angrepp är möjliga när access till en dator kan emuleras eller brytas i anslutning vet jag inte. Jag ser inte webbsurfande som riktigt meningsfullt att reflektera runt säkerhet för egen del utan håller hellre prioriterade datorer borta från nätet. Men det verkar väl inte otroligt.
Open source i military intelligence: Kan vi inte förenkla och hoppa över Snowden? För oss villiga att betala en slant för medarbetarnas tid
10/12/2013En hel del kring open source känns ju mycket stabilt. Ex. plattform man inte modifierar i projekt där det distribueras runt som planerat normalt eller ev. out-of-planned-channell (så att säga). Samtidigt har jag viss respekt för att inte blanda komponenter i egna lösningar från annat jag inte har exakt definierat. Det ändå tveksamma där är en mycket fet kompilator som oavsett tveksam gratis-licens för kommersiell användning är för slö (och vars värde - en statistisk natural language parser - över regelbaserade inte bör göra någon skillnad alls för att skapa parsnings-traden jag ändå bryter och tar över för sekundär-parsning relaterat mening med egna vikter).
Men frågan är ju även om vi kan distruera något (om jag från ett par minuters tittande på text) kanske kan distruera kode givet jämförbara villkor och vet från annat definierat att dessa inte distribuerar vidare är ju frågan vad det innebär när den koden ändå distribueras vidare. Vi ser ju här att det påstås att NSA ska vara moln-troende och ser - liksom antar jag de flesta behövande prisvärda os-plattformar m.m. för stora nät - open source som funktionellt (och mycket korrekt distribuerar sin egen linux-distribution stängande kanske en del tveksamma dörrar och ev skapande en del nytta för användare resp. särskilt nu spekulerar jag crowd sourcar många amerikaner som vill dra sitt strå still den nationella stacken genom att leta säkerhetshål i koden):
"According to published slides, Boundless Informant leverages Free and Open Source Software—and is therefore "available to all NSA developers"—and corporate services hosted in the cloud. The tool uses HDFS, MapReduce, and Accumulo (formerly Cloudbase)[11] for data processing.[12]"
Från: Boundless Informant | Wikipedia
Vad jag funderar över på kanske vi bäst sammanfattar i kan vi få en massa ev. bra lösningar av Snowden nu som är tvingande givet pågående distribution där delar publicerats i the Guardian byggande på annan kod han har (spekulerar vi) och ev. andra runt om har tillgång till. Eller om vi känner namnen kan jag få det direkt på en hårddisk från NSA utan att behöva gå omvägen över Snowden (jag betalar givetvis för den och shipping).
Jag är särskilt intresserad på lösningar man kan ha byggt runt MapReduce där jag lätt betvivlar att algoritm och kod som finns (om jag minns rätt i open-source) inte modifieras mycket bättre både i praktisk mening rörande interaktion med egna datacenter, saker på internet via api:er m.m. såväl som själva algoritmen varande tror jag ganska kostsam för varierade miljöer (men säkert funktionell nog för ex. Google, Bing och Yahoo jag föreställer mig har mycket enhetliga grid:ar även om lite utspridda i stora cluster: Och dessutom kunnande betala för kanske delvis onödig redundans).
Rent personligt här har jag många gånger haft värde av Dtic.gov forskning publicerad så jag bjuder gärna till lite här för att hjälpa det amerikanska folket hålla sina nationella funktioner levande. Också givet att man ändå riskar en hel del tid själv för att hantera data och algoritmer till värde...
Rent hobby-mässigt är jag lite nyfiken på lösningar man använder för egen kryptering runt telefoni m.m. Har Snowden det också och kommer det kanske med krypteringstillstånd färdigt på hårdvaran? Kan jag begära sådant också från Snowden och NSA om det alls i något fall är möjligt? Eller räknas det inte in i open source grunkorna? Och p.s.s. hur det med meta-fält i call-detail-records, e-post-headers m.m.? Kan det när det parsas ses som del av en sådan lösning? Kan jag få ut det också av någon av dom här två intressenterna? Träningsdata i verklig bredd att små-sampla från för analys saknar jag verkligen i den storleksordningen - säkert med kulturella associationer och annat kontext ibland noterat - och särskilt om jag kan få det på färdig hårddisk vore det mycket användbart för språkmodeller. Jag kan slanta upp en rimlig summa rent - säkert välkommet nu när Obama har ont om pengar - för timmarna det tar att spara ned (säg $10 US per halvtimme med fördefinierad fast-total summa oräknat @300 US för hårddisk - bör rimligen räknas på NSA's antar jag massinköp görande det billigt - $500 US med för korekt service kanske lite extra till den som tar hand om det - beräknat för amerikanernas e-post - voice är jag mindre intresserad av - kommer färdiga språkmodeller me kan jag nästan garantera ett par hundra dollar i dricks).
Varande ett starkt stöd till hela open-source samhället genom att använt både Emacs och annat många år - regelbundet marknadsfört dessutom när jag behövt göra skärmdumpar med ex. och där korrekt utan att peka ut det för istället den effektivare implicta brand building - vill jag inte att värdet jag bidragit med genom det alla år inte här ska ge tillbaka. Det är ju hela poängen med det hela att den enskilda användare får ett värde medan alla får värde från det.
Relaterat: NSA's datagrid:ar
Dom ligger väl döda och oanvända nu? Kanske via något leaving-office-soon-innovation-support-program är det accepterat att medarbetarna kör lite egna saker för kommande konsultaffäer, data marketing eller programutveckling? I så fall har jag en bunt stora filer med concept-associationer extraherade Wikipedia ytterst arbetsamma att komprimera ner till räknat per koncept.
Föreslå gärna en prisuppgift om möjligt. Även om mitt behov är verkligt tänker jag dock inte betala några överdrivna ocker-priser. Jag kan tänka mig en dollar per timme och då ska det få tråda upp bra över flera saker med mycket minne och egna cpu:er. Men jag är heller inte orealistisk här. 50 potenta grunkor med några cpu:er var och bra med minne räcker fint för en vecka eller så.
Självklart: Har man annat bra data att sampla man börjat lämna ut av licens-skäl eller för att vara en bra team player i open-source eller andra subkulturer runt om i världen kan jag också vara intresserad. Jag har ju bl.a. varit road av att följa USA's stora politiker Obama och det kunde vara kul att göra en språkmodell av honom inkluderande hans dagliga kommunikation. Har man det lägger jag gärna en tio dollar extra om man stoppar med det på hårddisken: i dricks givetvis.
En hel jag laddat ner och sampat från Dtic.gov tyckte jag längre bakåt relativt tidpunkten där det köptes eller gjordes var imponerande. Jag skulle gärna ta en samling sådant men skrivet åren nu och bakåt säg tio år rörande särskilt innovation energi, datanalysalgoritmer, kommunikaton som del av vapensystem, och frågor relaterat människans kognitiva dimension som del av slagfältet. Det lär givet pdf-dokument och bilder kräva några hårddiskar till men den kostnaden kan jag riska här tycker jag. Går det att få i text utan bilder och pdf-data klart tar jag hellre det.
Men finns mer man tänker sig sälja ut eller är tvungen att lämna ut man tror kan vara intressant gäller så klart att om priset är rimligt (tänk på att så mycket numera bara är att spindla ner från nätet: så inga rövarpriser): Ge ett förslag! Och bry er inte om att oroa er för dricksen. I Sverige på restauranger är den lagstiftad så jag följer för säljarens trygghet den procenten (om det är en leverans jag är nöjd med).
Masketad Zeppelinare: Att energieffektivt stuga upp för att se allt
9/21/2013Det tycks döfött att hitta mina kamera så jag tar bilden från den svenska återförsljaren
Tittar vi på budget här gäller att för Teknikmagazinet är den trevligare fisken jag handlade några hundra dyrare. Vidare gäller som vanligt tror jag att lokal butik är något dyrare. Mer moraliskt problematiskt gäller tråkigt nog att de kan lura på en batterier trots att de medföljer. Jag instruerade noggrant den lite tjockare nya i butiken två gånger och sedan en sista gång när han glömt bort det hela försökande hitta V för Vendetta masken jag också önskade i datorn att jag önskade alla nödvändiga batterier om de ej medföljde. Hemkommen noterar jag att det står med enorma bokstäver på en redan riktigt stor förpackning att de ingår. Omoral. Kanske finns en värre systematiskt kostnad också adderande till miljökostnaden? Här känner jag mig dock engagerad och ska försöka handla av honom någon mer gång för att bygga en etablerad omoral-historik rörande det. Och därefter dumpa ner allt samtidigt hos deras VD krävande pengarna tillbaka såväl som att han ska instrueras bättre. Jolly shopkeepers ska just vara det alltid glatt leende utan att missa något. Annars känns det inte bra för mig att betala mer för att handla på stan.
Utmaningen är att den avlyssnings- och fjärrskådande utrustning för att kika in genom fönster eller överblicka terrängen med inte får vara alls särskilt tung. Bara en aning för lite vikt-gegga och den faller till marker. Jag har därför ännu att se något lätt nog med rimlig budget. Ett fåtal gram samt en arm men den lättare mer balanserad över den.
Jag har dock redan skapat ljudmaskering. Ser någon min attack-fish kika in säger den: Mamma! Pedofilen försöker ta min leksak för att locka bort mig för styckmord!.
En idé kanske kan vara att byta ut helium mot vätgas så att den kan offra sig hellre än att tas tillfånga. Jag har dock ingen metod att bygga tryck om man genererar vätgäsen från aluminium och lämplig oh-donerande basisk substans (kaustiksoda bör nog fungera tror jag lämnande vatten som restprodukt gissar jag). Vilket förövrigt knallen också bör göra om jag minns rätt.
Det är just sådant här innovativt nytänkande skapa ett mirakel i modern-strategisk-krigföring och informationsinhämtning som år efter år skapar enorma merkostnader när det som regelsaknas hos resp. medborgarlags arme.
Kina rovar drone-teknik av USA: Men min maskerade luftfarkost (made in China) är konstnärligt elegantare
9/21/2013Jag tror verkligen alla motsvarande aktörer bäst lugnar ner sig kring sådant här oavsett vem. Det är en så pass ny domän att det är svårt att veta hur saker kan sluta. Tänk om något blir små irriterad och hackar någon av Shanghais ekonomiska styrsystem oavsett bransch och utlöser ett litet börsfall med förhoppning om att sätta lite fart på saker eller för att skrämma bort någon från att spionera på deras drones.
Vem vet förresten? Kanske kan få samma effekt bara publicerande verksamhetsdokumentation och interna prediktioner och bedömningar görande det möjligt att socialisera fram det via så många fler datorer såväl som människor. Token funktionen i eftergenomförd maskerad riktade säg huvud-diktatorns datorn bevisande äktheten säg med falskt data taget därifrån live med dom dokument med hämtade tidigare. Vi inser att hela domänen är oerhört problematiskt på sätt som endast vår kreativitet och innovationsförmåga begränsar och därför tycker jag här såväl som relaterat Syrien och säkert många andra att man bäst lugnar ner sig. Det är vapen som först nu blivit riktigt effektivt samtidigt med att folk insett vad de förmår. Och viss balans kan ta ett tag att etablera.
Förövrigt har jag själv nyligen investerat i ett koncept inte helt obesläktat en drone men via det leende glada, långsamt rörlig och ej dold är det ultimata verktyget för att försiktigt stiga upp för att överblicka Uppsala (om jag någonsin får den till att orka med sitt drivsystem att bära upp en kamera).
Men så har jag ofta fått höra att jag är konstnärligt lite elegantare i detaljer minnas våra kulturhistoria. Vem kan ex. betvivla att zepelinarna som varit del av så många filmer välsäljande både vid premiär och säljande vidare till teve-näten - är exellenta koncept. Därifrån är det bara att ta det energieffektivt och helst utan att man själv behöver tillverka det - ex. som jag gjorde tagande det 100% från Kina.
Införskaffade samtidigt en sådan där mask jag första gången noterade 2009 tror jag i pressbilder. Men tagande på sig den saknar man helt den eleganta bedrägliga natur min Drone - Rule it all (beta) infiltrerande med sin vardagligt ofarliga utseende.
Men snart nog lär jag tröttna men jag ska väl ta och fotografera den först för här. Därefter blir det hoppas jag ett litet flygplan en aning runt på ovansidan vilket ger den lite förmåga att segla fram långsammare i en kanske vek kompromiss med motsvarande teknik-ledande men varande en enkel man levande nära naturen med föga resurser tar jag det energieffektivt och billigt hellre än att beställa från Lockhead Martin.