Habilitando a conexão remota no SQL Server 2008

Fonte: http://sqlfromhell.wordpress.com/2010/04/18/habilitando-o-acesso-remoto-no-sql-server-2008/

Por Paulo R. Pereira

E ai pessoas, como tenho recebido alguns e-mails pedindo para mostrar “como fazer para que outros computadores acessem o meu banco de dados” e “habilitar o acesso remoto do SQL Server 2008”, então vamos à demonstração!

Antes de começar, se o servidor estiver fora de um “domínio” ou você não saiba o que é “domínio”, dê uma olhada neste artigo:
http://sqlfromhell.wordpress.com/2009/05/24/habilitando-sql-authentication-e-o-usuario-sa/

Em seguida, habilitamos o Firewall do Windows (permitindo exceções). Mas para ambientes de teste não há problema em deixá-lo desabilitado.

Dentre as diversas exceções, adicionamos mais uma porta:

Para boa parte dos cenários, a porta TCP 1433 já vai suprir as necessidades:

Em outros cenários mais específicos, pode existir a necessidade de habilitar as portas UPD 1434, TCP 1434 e outras (at. http://msdn.microsoft.com/en-us/library/ms175483.aspx ).

No SQL Server Management Studio, verifique se nas propriedades do servidor esta habilitada a opção “Allow remote connections to this server”. Caso não esteja habilitada, será necessário habilitá-la.

No SQL Server Configuration Manager, mais precisamente nos protocolos da sua instância (ex.: SQLEXPRESS, SQL2005, MSSQLSERVER…), entre nas propriedades do protocolo TCP/IP:

E habilite o protocolo TCP/IP. Em alguns cenários também se faz necessário habilitar o protocolo “Named Pipes”.

E recomendo definir a porta de conexão:

Se você quiser configurar outras portas para o SQL Server, dê uma olhada neste artigo:
http://sqlfromhell.wordpress.com/2009/09/05/portas-sql-server/

Reinicie o serviço do SQL Server da sua instância e o SQL Server Browser, depois em uma máquina cliente, tente se conectar ao servidor com um usuário válido:

Se tudo ocorrer como previsto, teremos a conexão:

Bem, estou usando uma VM “zerada” que até o momento tem o Windows Server 2003 R2 e o SQL Server 2008, assim existe grande possibilidade de não funcionar em outros cenários.

Pontos a levar em consideração para tratar outros cenários:

  • Se você não conseguir ao menos dar um “ping” ou compartilhar uma pasta do servidor à rede ou conectar remoto com o Remote Desktop Connection (mstsc.exe), isso pode ser sinal que tem algo errado com o firewall ou a rede ou até mesmo com o Windows (então não é culpa do SQL Server, ainda…).
  • Programas de Antivírus ou Firewall de terceiros, também são grandes culpados por problemas com o acesso remoto, tanto no servidor como no cliente.
  • O usuário que você esta utilizando para se conectar pode não ter permissão para se conectar ou o servidor não esta no domínio (at. http://sqlfromhell.wordpress.com/2009/05/24/habilitando-sql-authentication-e-o-usuario-sa/ ). Para “testar”, no servidor tente se conectar ao SQL Server com o usuário que você esta utilizando na máquina cliente.
  • Para “testar”, não utilize o SQL Server Management Studio 2005 para se conectar a um SQL Server 2008, pois algumas vezes isso não dá muito certo.

Mais uma coisa, se eu não responder um comentário em 24h é sinal que não estou com acesso à internet, pois possivelmente estarei preso na ilha de LOST (probabilidade 0,001%) ou estou numa “missão” extraordinária pelo Exército Brasileiro (probabilidade 4%) ou estou apagando algum incêndio em alguma consultoria (probabilidade 85%) ou dedicado a algum trabalho acadêmico (probabilidade 10%), então também vale a pena procurar os fóruns do MSDN e/ou o suporte da Microsoft.

Na internet, encontrei outros dois artigos bons sobre o assunto:

Instalando e Configurando o SQL Server 2005 Express – Nilton Pinheiro:
http://www.mcdbabrasil.com.br/downloads/install_sqlexpress.pdf

Como configurar Conexão Remota no SQL Server 2005 – Diego Nogare:
http://www.linhadecodigo.com.br/artigo/1260/como-configurar-conexao-remota-no-sql-server-2005.aspx

Anúncios

HTML5: 10 duras verdades

O momento é propício para admitir que existem limitações sérias com o modelo.

Por Peter Wayner, InfoWorld

Para muitos profissionais de TI, o HTML5 representa a chegada de algumas novas características interessantes, com potencial para provocar uma mudança de paradigma na programação Web. Polvilhe um pouco de HTML5 em seu código e seus sites serão mais rápidos e mais extravagantes. Mas a realidade do que HTML5 pode fazer por aqueles que procuram APPs na Web está aquém do hype.

O momento é propício para admitir que existem limitações sérias com o modelo. Não só há razões para lamentar sobre o fato de o HTML5 não realizar todos os nossos sonhos de atingir o nirvana na Web, como até mesmo razões para abster-se de usar o HTML5, em alguns casos.

A verdade é que, apesar de suas capacidades poderosas, o HTML5 não é a solução para todos os nossos problemas. Suas características adicionais são convincentes e ajudam a tornar aplicativos Web concorrentes formidáveis para aplicativos nativos, mas questões com segurança, limitações para armazenamento local de dados, os desafios de sincronização e as políticas de uso, deveriam ser suficientes para frear todas as expectativas. Afinal, cada tecnologia tem suas limitações.

Listamos dez duras verdades que os desenvolvedores Web devem considerar para tirar o máximo do HTML5.

1:: Segurança é um pesadelo
Na ponta cliente, o problema fundamental é que o usuário final tem controle sobre o código executado na máquina. No caso de aplicações Web, quando o seu browser vem com uma ferramenta de depuração, é mais fácil do que nunca abusar desse controle.

Com um depurador JavaScript como o Firebug, quem tem alguma curiosidade sobre o que o Facebook, o Google, ou qualquer outro site está fazendo pode simplesmente começar a inserir breakpoints e ver o código. Isso é ótimo para depurar e aprender como operar sites, mas também é um pesadelo para a segurança.

Suponha que você tenha o interesse em mudar o valor de uma variável. O Firebug ou qualquer um dos depuradores presentes em outros navegadores pode ajudá-lo a ajustar as variáveis como você desejar. Quer enganar seus amigos e fazê-los crer que você está em determinado local, longe do local onde você de fato está? É fácil editar as variáveis latitude e longitude para colocar seu browser em qualquer lugar do mundo. Todas as características puras do seu aplicativo Web podem ser modificados, e o browser torna mais fácil essa modificação do que um APP de código nativo.

Isso significa que os aplicativos baseados em clientes HTML5 podem não ser confiáveis para a coleta dos dados, e é melhor para que todos tenham consciência de suas capacidades.

2 :: O armazenamento local de dados é limitado
A permissão para o armazenamento de até 4GB de dados estruturados pelo banco de dados presente no browser, no lado do cliente – de forma parecida a como vinha ocorrendo com o uso de cookies, mas tentando eliminar as limitações impostas, como o tamanho de 4Kb – é uma das funcionalidades mais badaladas do HTML5.

O desenvolvedor deve lembrar, no entanto, que o armazenamento local é por site e estará disponível para seus scripts toda vez que o site que originalmente armazenou os dados for acessado, de modo a poupar largura de banda e melhorar o desempenho.

E também que os banco de dados dos browsers não dão aos usuários o mesmo poder sobre seus dados que eles teriam em outros aplicativos.

Por exemplo: o usuário não pode mover os dados armazenados para outra máquina, fazer cópias, fazer um backup, ou abri-lo com um aplicativo diferente do navegador. Os arquivos não são projetados para se mover facilmente, embora seja possível fazê-lo se o usuário souber onde e como localizá-los. Até porque, não são como planilhas ou documentos de texto, fáceis de abrir com qualquer editor.

3:: Dados locais podem ser manipulados
O usuário não pode ter controle sobre os dados armazenados localmente, mas o site central também pode ter problemas por causa com a sincronização e até mesmo com a segurança desses dados.

Não há como o desenvolvedor garantir que o banco de dados local nunca será manipulado pelo usuário. Embora não existam ferramentas que tornem a edição dos dados locais e/ou a atualização de privilégios, tarefas fáceis para os usuários, ainda assim elas podem vir a ocorrer. Brechas de segurança do código JavaScript, por exemplo, são apenas um dos caminhos possíveis para tal.

4:: A sincronização dos aplicativos offline é um pesadelo
A possibilidade de armazenamento local de dados local do HTML5 melhora imensamente a capacidade de usar aplicativos Web no modo offline. O único problema é a sincronização de dados.

Se um aplicativo Web está conectado à Internet, pode sempre salvar os dados para a nuvem. Quando está offline, as alterações não são sempre armazenados na nuvem. Quando alguém muda de navegador ou usa uma máquina diferente, cópias começam a proliferar e as dificuldades de sincronização também.

Os desenvolvedores devem se preocupar em fornecer a interface para que o usuário possa lidar com a sincronização. A especificação HTML5 não oferece qualquer ajuda.

Programadores gerenciar essas dores de cabeça utilizando sistemas de controle de versão, que se tornaram cada vez mais sofisticados para lidar com esse problema. No entanto, apenas ter a tecnologia não significa que ela seja de fácil uso. A fusão de vários repositórios GIT pode levar tempo.

5:: A nuvem lhe deve nada
Não é justo culpar HTML5 por todos os problemas estruturais com o armazenamento de dados na nuvem, mas a nuvem é uma parte essencial do modelo, que tira proveito dela para corrigir todas as dores de cabeça da instalação de software e backup de dados.

Dadas as limitações de armazenamento local de dados do HTML5, a maior parte do armazenamento de dados das APPs Web continuará nos servidores, e há momentos em que esta abordagem poderá ser devastadora.

Recentemente o Facebook decidiu que não gostava de um plug-in baseado em Linux para fazer upload de fotos. O plug-in foi removido, juntamente com todas as fotos que foram enviadas ao usá-lo.

Essas histórias não são comuns, mas estão se tornando cada vez mais frequentes, por muitas razões. E podem vir a ser um problema ainda maior se considerarmos que muitos termos de serviço de aplicações Web não responsabilizam os fornecedores por perdas de dados, deixando o usuário sem nenhum recurso legal para recuperá-los. Alguns dos acordos de serviço mais ultrajantes insistem que os dados podem até mesmo serem excluído sem “nenhuma razão” para tal.

A estrutura do HTML5 praticamente garante que qualquer do dado em cache local no navegador do usuário será armazenado na nuvem, fora de seu alcance e controle. O hype HTML5 diz que esta é uma característica fantástica, mas esquece que ele pode se voltar facilmente contra o modelo.

6:: Upgrades forçados não são para todos

Uma história, apócrifa, circula na rede. Consta que determinada pessoa usou uma conta de Gmail para conexões casuais com pessoas em bares. Quando o Google+ foi lançado, todas as lembranças dessas pessoas vieram à tona, porque endereços antigos para os fóruns de discussão voltaram à superfície. Todos os dias, velhos conhecidos reaparecem lá pedindo para serem incluídos em círculos de discussão.

Quando as empresas Web necessitam fazer o upgrade de seus serviços, normalmente o fazem de uma vez, contemplando todos os usuários ao mesmo tempo. Se, por um lado, isso livra os usuários de terem que gerenciar a instalação do upgrade, por outro acaba virando um pesadelo para qualquer um que não queira usar os novos recursos.

E este não é apenas um problema para a privacidade das pessoas, como no caso acima.

7:: Web Workers não oferecem priorização

eb Workers estão entre os recursos mais intrigantes do HTML5. Ele acelera o carregamento de páginas web cheias de código javascript, por ser capaz de executá-los em processos separados do restante da página web. Em outras palavras, o HTML5, com o Web Workers permite que o navegador se comporte como um sistema operacional, ainda que parcialmente.

Infelizmente, não há maneira de gerenciar a carga de trabalho de forma eficaz ou de definir prioridades.

8:: Incompatibilidades de formato abundam

Não culpe os comitês do HTML5 pelo fato de os desenvolvedores de browsers não tenham decidido implementar todos os vários formatos áudio e vídeo. São os desenvolvedores que têm que lidar com as consequências quando um arquivo que funciona perfeitamente em um browser não faz nada em outro. Há um teste para isso? Desenvolvedores de API foram espertos o suficiente para incluir a função canPlayType, mesmo que ela não seja suportada por todos os navegadores.

9:: Implementações são browser-dependentes

A visão idílica do HTML5 é uma coisa, a realidade grungy de suas implementações é outra. Verdade. Os programadores estão tentando fazer o seu melhor para construir os sonhos dos arquitetos, mas algumas tags e objetos não funcionam corretamente.

Por exemplo, há muitos desejos sobre a API de geolocalização do HTML5. Ela oferece alguma proteção para a privacidade e um pouco de controle sobre a precisão. Mas em determinado browser, sempre dá time out.

Em última instância, esta é mais uma reclamação sobre como os navegadores não conseguem implementar recursos HTML5 de forma consistente, ao contrário de um ser que visa a estrutura da API em si.

10:: Idiossincrasias de hardware impõem novos desafios

Também parece injusto reclamar sobre como alguns desenvolvedores de browser vão além do dever de proporcionar um desempenho muito melhor. Mas nenhuma boa ação fica impune.

A Microsoft tem feito um grande trabalho de melhorar o desempenho de objetos Canvas no IE, integrando-os com os drivers de baixo nível de hardware. A empresa encomendou jogos simples, como pirateslovedaisies.com, para demonstrar o recurso.

Mas agora os programadores devem prestar atenção para saber se esse recurso adicional está disponível ou não, e se seu código está sendo executado.

Fonte: idgnow.uol.com.br

******************************************

CONHEÇA AS VANTAGENS DO  MICROSOFT SHAREPOINT

tela SharePoint

A Plataforma de Colaboração Corporativa para a Empresa e a Internet.

Consulte a DANRESA e saiba mais.

Após teste, Google, Facebook e Yahoo começam a usar o IPv6 para valer

Por Network World (US)

Sucesso do Dia Mundial do IPv6 levou empresas a manter o suporte em alguns de seus sites, como o YouTube.

Um dia depois do sucesso no teste de 24h do protocolo de internet IPv6, Facebook Google e Yahoo afirmaram, em coletiva de imprensa conjunta, que vão dar suporte ao novo padrão de comunicação em alguns de seus principais sites.

As redes de distribuição de conteúdo Akamai e Limelight, que também anunciaram o compromisso de implantação do IPv6,  declaram que o o Dia Mundial do IPv6 foi um sucesso retumbante. As empresas afirmaram ter registrado um aumento significativo no tráfego de IPv6 em 8 de junho, sem sofrer graves problemas técnicos.

O novo protocolo expande a quantidade de endereçamentos únicos de IP para suportar mais aparelhos conectados diratemente à internet que o anterior, o IPv4. Entretanto, o IPv6 não é compatível com o padrão de comunicação antigo, o que significa que operadores  e portais precisam atualizar seu equipamento de rede e software para suportar o novo protocolo.

A Google afirmou que decidiu deixar seu site de compartilhamento de vídeos YouTube habilitado para IPv6 no momento. Desde 2008, a Google tem suportado IPv6 em sites separados – como o http://www.ipv6.google.com – em vez de seus sites principais.

“Vimos um crescimento de 65% em nosso tráfego de IPv6 durante o teste mundial”, declarou Lorenzo Colitti, engenheiro de software IPv6 da Google, que informou que a empresa adicionou suporte a IPv6 em vários novos serviços, incluindo o Orkut, no Dia Mundial do IPv6. “Esse evento foi realmente bem sucedido”.

“No Facebook, vimos que mais de 1 milhão de internautas se conectaram a nós por meio do IPv6”, disse Don Lee, engenheiro sênior de rede do Facebook. “Não houve problemas técnicos no período de 24h”. “Fomos encorajados por muitos comentários positivos em nosso blog… É realmente interessante como as pessoas gostam do IPv6 ao redor do mundo.”

Com os resultados positivos do Dia Mundial do IPv6, o Facebook decidiu dar suporte ao novo protocolo de internet em seu site para desenvolvedores, www.developers.facebook.com.

“Vamos continuar a adaptar todo nosso código base para suportar o IPv6”, afirmou Lee. “O IPv6 vai permitir que internet continue seu desenvolvimento impressionante”.

(Carolyn Duffy Marsan)
 
********************************
Conheças as soluções de Cloud Computer da DANRESA Consultoria.

Google, Microsoft e Yahoo juntam forças para melhorar as buscas na web

As três rivais bancam a Schema.org, uma iniciativa para ajudar os webmasters a utilizar tags HTML melhores para identificar dados estruturados.

Em uma rara demonstração de colaboração, a Google juntou forças com as rivais Microsoft e Yahoo em um projeto concebido para melhorar o recolhimento e a indexação de dados estruturados na web, que são geralmente provenientes de bancos de dados mas perdem sua formatação quando convertidos para HTML.

As três empresas lançaram um site chamado Schema.org, que contém um conjunto comum de tags HTML para ajudar os webmasters a identificar dados estruturados publicados em seus sites.

“O Schema.org pretende ser uma fonte única de recursos para webmasters que buscam marcar suas páginas de forma a ajudar os motores de busca a entender melhor seus sites”, afirmou a Google, em seu blog.

Ao promover o uso dessas tags comuns por toda a web, as três empresas esperam que seus motores de busca possam melhorar suas capacidades de identificar, recolher e indexar dados estruturados.

“Muitas aplicações, especialmente motores de busca, podem se beneficiar bastante com o acesso direto a esses dados estruturados. A marcação na página ajuda os motores de busca a entender a informação na página web – o que, por sua vez, colabora na exibição de resultados de busca mais ricos”, defende o site Schema.org, em sua página inicial.

O Schema.org contém mais de 100 tags HTML para categorias de dados estruturados como eventos, organizações, pessoas, lugares, produtos, análises, pontuações, filmes e livros.

(Juan Carlos Perez)
 
**************************************

Search WebPart for Sharepoint 2010

By tdomf_6998b, on October 19th, 2010
This is a free webpart. Below is the complete code. Enjoy!

In SharePoint 2010, you can use the query object model to build custom
search
Web Parts and search applications. This object model allows you to
query against SharePoint Server search as well as to FAST Search Server 2010 for
SharePoint.

The FullTextSqlQuery class available in the object model allows you to build
complex search queries based on SQL syntax however, the KeywordQuery class can
be used to issue search queries based on simple query syntax. With Fast Search
Server 2010, this class can also be used to run queries based on the Fast Query
Language (FQL), which supports advanced queries in enterprise environments.

The example below demonstrates using the query object model to issue a search
query based on a keyword search with the KeywordQuery class. This example is
built as an application page with a text input field called txtSearch, a button
for submitting the query called btnSearch, and an SPGridView called
searchGrid.

Please Note : Before you can run search queries, you also need to specify the
search server that should be used for indexing in Central Administration, under
Application Management -> Databases -> Manage Content Databases ->
[Your content DB] > Search Server.

using System;
using Microsoft.SharePoint;
using
Microsoft.SharePoint.WebControls;
using System.Data;
using
Microsoft.Office.Server;
using Microsoft.Office.Server.Search;
using
Microsoft.Office.Server.Search.Query;

namespace Apress.SP2010.Layouts.CustomSearch
{
public partial class
ApplicationPage1 : LayoutsPageBase
{
protected void Page_Load(object
sender, EventArgs e)
{
if
(!IsPostBack)
{
SetGridColumns();
}
}

// The event is called when the search button is pressed
protected void
btnSearch_Click(object sender, EventArgs e)
{
DataTable search = new
DataTable();

using (SPSite site = new
SPSite(SPContext.Current.Web.Site.Url))
{
KeywordQuery query = new
KeywordQuery(site);

query.ResultsProvider = Microsoft.Office.Server.Search.Query.

SearchProvider.Default;

query.ResultTypes = ResultType.RelevantResults;

query.KeywordInclusion = KeywordInclusion.AllKeywords;

query.QueryText = txtSearch.Text;

ResultTableCollection results = query.Execute();

if (results.Count > 0)
{

ResultTable relevant = results[ResultType.RelevantResults];

search.Load(relevant);

DataView view = new DataView(search);

// Fill the SPGridView defined in the page markup

searchGrid.DataSource = search;

searchGrid.DataBind();
}}}

private void SetGridColumns()
{
SPBoundField fieldTitle = new
SPBoundField();

fieldTitle.HeaderText = “Title”;

fieldTitle.DataField = “Title”;

SearchGrid.Columns.Add(fieldTitle);

SPBoundField fieldPath = new SPBoundField();

fieldPath.HeaderText = “Path”;

fieldPath.DataField = “Path”;

SearchGrid.Columns.Add(fieldPath);

SPBoundField fieldAuthor = new SPBoundField();

fieldAuthor.HeaderText = “Edited”;

fieldAuthor.DataField = “Write”;

SearchGrid.Columns.Add(fieldAuthor);
}}}

In the above code, the OnClick handler for the button creates a KeywordQuery
object and passes the text from the text field to the QueryText property. After
calling Execute, the results are available through the ResultTable at the index
ResultType.RelevantResults in the returned ResultTableCollection. Using a
DataTable, these results are bound to the SearchGrid for display. The relevant
table columns are bound using the SetGridColumns method during Page_Load.

Saiba mais sobre os recursos do Sharepoint

DANRESA facilita BI para segmento PME com serviço de relatórios estratégicos

A DANRESA – consultoria de TI com mais de 12 anos de experiência no mercado – tem acompanhado a dificuldade das empresas de pequeno e médio porte de ter acesso fácil e seguro às suas informações de negócios que, na maioria das vezes, encontram-se em vários formatos e locais distintos, como arquivos, sites, bases de dados e aplicações.

Para auxiliar as empresas nesse desafio, dinamizando o acesso à informação e facilitando a tomada de decisões, a DANRESA formatou um pacote de serviços de consultoria que vai do mapeamento do ambiente das empresas e de suas necessidades de negócios até a criação e oferta de relatórios dinâmicos e estratégicos. O objetivo desse pacote de serviços é disponibilizar as principais informações para a tomada de decisões de negócio, por meio de relatórios, indicadores e gráficos dinâmicos para toda a empresa de forma segura e controlada. É possível mesclar relatórios, gráficos e indicadores em uma mesma visão.

“É o cliente quem diz à DANRESA que informações devem ser contempladas nesses relatórios e de que modo elas devem ser exibidas e visualizadas. O mercado PME muitas vezes não tem como investir em uma ferramenta de BI (Business Intelligence), mas para se manter competitivo precisa desse conceito para ter à mão suas principais informações de negócios, não importa onde elas estejam”, analisa o sócio-diretor da DANRESA, Daniel Porta.

De acordo com o executivo, a DANRESA faz integração com SAP, MICROSIGA, DATASUL, aplicações internas, arquivos Excel, CSV, TXT, XML, interfaces, serviços, web services, base de dados Oracle, SQL Server, Access, Sybase, MySQL, DB2, entre outros. “Fazemos essa integração e oferecemos relatórios personalizados para cada cliente”, reforça Daniel Porta.

Os relatórios podem ser publicados em ambiente WEB, acessados via browser, intranet ou internet, hospedados na infraestrutura do cliente, ou no Data Center da DANRESA.

fonte: Site DANRESA

Oracle Imp e Exp syntaxe

oracle imp/exp

These tools are used to transfer data from one oracle database to another oracle database. You Export tool to export data from source database, and Import tool to load data into the target database. When you export tables from source database export tool will extracts the tables and puts it into the dump file. This dump file is transferred to the target database. At the target database the Import tool will copy the data from dump file to the target database.
From Ver. 10g Oracle is recommending to use Data Pump Export and Import tools, which are enhanced versions of original Export and Import tools.
The export dump file contains objects in the following order:
1.Type definitions2.Table definitions3.Table data4.Table indexes5.Integrity constraints, views, procedures, and triggers6.Bitmap, function-based, and domain indexes
When you import the tables the import tool will perform the actions in the following order, new tables are created, data is imported and indexes are built, triggers are imported, integrity constraints are enabled on the new tables, and any bitmap, function-based, and/or domain indexes are built. This sequence prevents data from being rejected due to the order in which tables are imported. This sequence also prevents redundant triggers from firing twice on the same data
Invoking Export and Import
You can run Export and Import tool in two modes
Command Line Mode
Interactive Mode
When you just type exp or imp at o/s prompt it will run in interactive mode i.e. these tools will prompt you for all the necessary input. If you supply command line arguments when calling exp or imp then it will run in command line mode
Command Line Parameters of Export tool
You can control how Export runs by entering the EXP command followed
by various arguments. To specify parameters, you use keywords:
Format: EXP KEYWORD=value or KEYWORD=(value1,value2,…,valueN)
Example: EXP SCOTT/TIGER GRANTS=Y TABLES=(EMP,DEPT,MGR)
or TABLES=(T1:P1,T1:P2), if T1 is partitioned table

Keyword Description (Default)
————————————————————–
USERID username/password
BUFFER size of data buffer
FILE output files (EXPDAT.DMP)
COMPRESS import into one extent (Y)
GRANTS export grants (Y)
INDEXES export indexes (Y)
DIRECT direct path (N)
LOG log file of screen output
ROWS export data rows (Y)
CONSISTENT cross-table consistency(N)
FULL export entire file (N)

OWNER list of owner usernames

TABLES list of table names

RECORDLENGTH length of IO record

INCTYPE incremental export type

RECORD track incr. export (Y)

TRIGGERS export triggers (Y)

STATISTICS analyze objects (ESTIMATE)

PARFILE parameter filename
CONSTRAINTS export constraints (Y)
OBJECT_CONSISTENT transaction set to read only during object export (N)

FEEDBACK display progress every x rows (0)

FILESIZE maximum size of each dump file

FLASHBACK_SCN SCN used to set session snapshot back to

FLASHBACK_TIME time used to get the SCN closest to the specified time

QUERY select clause used to export a subset of a table

RESUMABLE suspend when a space related error is encountered(N)

RESUMABLE_NAME text string used to identify resumable statement

RESUMABLE_TIMEOUT wait time for RESUMABLE

TTS_FULL_CHECK perform full or partial dependency check for TTS

TABLESPACES list of tablespaces to export

TRANSPORT_TABLESPACE export transportable tablespace metadata (N)

TEMPLATE template name which invokes iAS mode export

The Export and Import tools support four modes of operation
FULL :Exports all the objects in all schemas
OWNER :Exports objects only belonging to the given OWNER
TABLES :Exports Individual Tables
TABLESPACE :Export all objects located in a given TABLESPACE.

Example of Exporting Full Database
The following example shows how to export full database
$exp USERID=scott/tiger FULL=y FILE=myfull.dmp
In the above command, FILE option specifies the name of the dump file, FULL option specifies that you want to export the full database, USERID option specifies the user account to connect to the database. Note, to perform full export the user should have DBA or EXP_FULL_DATABASE privilege.
Example of Exporting Schemas
To export Objects stored in a particular schemas you can run export utility with the following arguments
$exp USERID=scott/tiger OWNER=(SCOTT,ALI) FILE=exp_own.dmp
The above command will export all the objects stored in SCOTT and ALI’s schema.
Exporting Individual Tables
To export individual tables give the following command
$exp USERID=scott/tiger TABLES=(scott.emp,scott.sales) FILE=exp_tab.dmp
This will export scott’s emp and sales tables.
Exporting Consistent Image of the tables
If you include CONSISTENT=Y option in export command argument then, Export utility will export a consistent image of the table i.e. the changes which are done to the table during export operation will not be exported.
Using Import Utility
Objects exported by export utility can only be imported by Import utility. Import utility can run in Interactive mode or command line mode.
You can let Import prompt you for parameters by entering the IMP command followed by your username/password:
Example: IMP SCOTT/TIGER
Or, you can control how Import runs by entering the IMP command followed
by various arguments. To specify parameters, you use keywords:
Format: IMP KEYWORD=value or KEYWORD=(value1,value2,…,valueN)
Example: IMP SCOTT/TIGER IGNORE=Y TABLES=(EMP,DEPT) FULL=N
or TABLES=(T1:P1,T1:P2), if T1 is partitioned table
USERID must be the first parameter on the command line.
Keyword
Description (Default)

USERID
username/password

BUFFER
size of data buffer

FILE
input files (EXPDAT.DMP)

SHOW
just list file contents (N)

IGNORE
ignore create errors (N)

GRANTS
import grants (Y)

INDEXES
import indexes (Y)

ROWS
import data rows (Y)

LOG
log file of screen output

FULL
import entire file (N)

FROMUSER
list of owner usernames

TOUSER
list of usernames

TABLES
list of table names

RECORDLENGTH
length of IO record

INCTYPE
incremental import type

COMMIT
commit array insert (N)

PARFILE
parameter filename

CONSTRAINTS
import constraints (Y)

DESTROY
overwrite tablespace data file (N)

INDEXFILE
write table/index info to specified file

SKIP_UNUSABLE_INDEXES
skip maintenance of unusable indexes (N)

FEEDBACK
display progress every x rows(0)

TOID_NOVALIDATE
skip validation of specified type ids

FILESIZE
maximum size of each dump file

STATISTICS
import precomputed statistics (always)

RESUMABLE
suspend when a space related error is encountered(N)

RESUMABLE_NAME
text string used to identify resumable statement

RESUMABLE_TIMEOUT
wait time for RESUMABLE

COMPILE
compile procedures, packages, and functions (Y)

STREAMS_CONFIGURATION
import streams general metadata (Y)

STREAMS_INSTANITATION
import streams instantiation metadata (N)

Example Importing Individual Tables
To import individual tables from a full database export dump file give the following command
$imp scott/tiger FILE=myfullexp.dmp FROMUSER=scott TABLES=(emp,dept)
This command will import only emp, dept tables into Scott user and you will get a output similar to as shown below
Export file created by EXPORT:V10.00.00 via conventional path
import done in WE8DEC character set and AL16UTF16 NCHAR character set
. importing SCOTT’s objects into SCOTT
. . importing table “DEPT” 4 rows imported
. . importing table “EMP” 14 rows imported
Import terminated successfully without warnings.
Example, Importing Tables of One User account into another User account
For example, suppose Ali has exported tables into a dump file mytables.dmp. Now Scott wants to import these tables. To achieve this Scott will give the following import command
$imp scott/tiger FILE=mytables.dmp FROMUSER=ali TOUSER=scott
Then import utility will give a warning that tables in the dump file was exported by user Ali and not you and then proceed.
Example Importing Tables Using Pattern Matching
Suppose you want to import all tables from a dump file whose name matches a particular pattern. To do so, use “%” wild character in TABLES option. For example, the following command will import all tables whose names starts with alphabet “e” and those tables whose name contains alphabet “d”
$imp scott/tiger FILE=myfullexp.dmp FROMUSER=scott TABLES=(a%,%d%)
Migrating a Database across platforms.
The Export and Import utilities are the only method that Oracle supports for moving an existing Oracle database from one hardware platform to another. This includes moving between UNIX and NT systems and also moving between two NT systems running on different platforms.
The following steps present a general overview of how to move a database between platforms.
1.As a DBA user, issue the following SQL query to get the exact name of all tablespaces. You will need this information later in the process.SQL> SELECT tablespace_name FROM dba_tablespaces;
2.As a DBA user, perform a full export from the source database, for example:> exp system/manager FULL=y FILE=myfullexp.dmp
3.Move the dump file to the target database server. If you use FTP, be sure to copy it in binary format (by entering binary at the FTP prompt) to avoid file corruption.4.Create a database on the target server.5.Before importing the dump file, you must first create your tablespaces, using the information obtained in Step 1. Otherwise, the import will create the corresponding datafiles in the same file structure as at the source database, which may not be compatible with the file structure on the target system.6.As a DBA user, perform a full import with the IGNORE parameter enabled:> imp system/manager FULL=y IGNORE=y FILE=myfullexp.dmp
Using IGNORE=y instructs Oracle to ignore any creation errors during the import and permit the import to complete.
Perform a full backup of your new database.
Posted by Jephe Wu at 1:23 AM Labels: exp, imp, oracle